Público & Pragmático

Desafios para a regulação do uso da IA no setor público

Autores

22 de junho de 2025, 8h00

A crescente adoção de sistemas baseados IA na sociedade tem provocado inquietações jurídicas nas esferas pública e privada, suscitando discussões envolvendo direitos autorais, propriedade intelectual, relações de trabalho, privacidade, proteção de dados, direito público e outros direitos fundamentais que costumam ser trazidos para discussão quando emerge o tema vis-à-vis a governança no uso da tecnologia.

Contudo, abordar o uso de sistemas de IA apenas sob a ótica dos seus impactos é insuficiente [1]. Nesse sentido, este artigo objetiva identificar alguns desafios concretos que o Estado brasileiro precisará enfrentar nos próximos anos.

Lições do EU AI Act e o cenário brasileiro

A União Europeia deu um passo ambicioso com a sua Lei de Inteligência Artificial (Regulamento (EU) 2024/1689). Esta iniciativa, ao criar uma classificação de riscos e proibir certos usos de sistemas de IA, não apenas se tornou um marco de vanguarda, mas também reforçou o conhecido “Efeito Bruxelas” no âmbito do direito regulatório europeu. Por outro lado, os EUA ainda seguem um modelo de menor regulamentação, pautando-se em iniciativas por meio de Executive Orders ou orientações por frameworks  de gestão de riscos do Nist.

No Brasil, para além do PL nº 2.338/2023 — que tramita no Congresso e visa instituir o Marco Legal da IA —, observam-se também significativos avanços em âmbito subnacional: Alagoas (Lei nº 9.095/2023) e Goiás (LC nº 205/2025) já regulamentam pontualmente o uso ético da IA no setor público; ainda na esfera estadual, Paraná adotou um Plano de Diretrizes para IA, e São Paulo discute o PL nº 180/2025, que autoriza a implantação voluntária de sistemas inteligentes de monitoramento por reconhecimento facial para apoio à segurança pública.

No âmbito municipal, Curitiba aprovou a Lei nº 16.321/2024; São Paulo implementou o programa Smart Sampa, que utiliza IA e reconhecimento facial para monitoramento urbano e policiamento preditivo; São Leopoldo inovou com a ferramenta LegIA no Legislativo; e Goiânia retoma neste ano a tramitação do arquivado PL 240/2023. São iniciativas legislativas que demonstram que os entes subnacionais brasileiros, ainda que de forma heterogênea, começam a se mobilizar frente aos desafios regulatórios impostos pela IA.

Com efeito, o indigitado PL nacional, na linha do que estabeleceu o marco europeu, também busca estabelecer diretrizes para o uso de IA de maneira segura, haja vista que a IA não apresenta um perigo por si só, conforme bem afirmam Paul Voigt e Nils Hullen [2]. A proposta de marco regulatório nacional, contudo, ainda enfrenta resistências no Congresso, sobretudo devido à politização do debate, frequentemente entrelaçado com as discussões sobre a regulação das redes sociais.

Portanto, há uma excelente janela de oportunidades para se aprofundar as discussões sobre os principais desafios no uso dos sistemas de IA pelo setor público.

Desafio do letramento em IA

O setor público brasileiro já está utilizando a IA de maneira pouco coordenada e sem uma estrutura de governança de IA consolidada. A necessidade de letramento dos agentes públicos e da sociedade em geral no uso de sistemas de IA é imperiosa, à semelhança de comando similar existente no artigo 4º do EU AI Act. Esse desafio é tão relevante que, se não superado, afetará o enfrentamento de todos os outros desafios futuros.

Não obstante vejamos a IA, principalmente a generativa, como uma ferramenta tecnológica revolucionária, trata-se, sobretudo, de um sistema com riscos de vieses em seus outputs [3]. O caso A-level do Reino Unido é um exemplo emblemático: um algoritmo de notas escolares foi utilizado para atribuir notas em 2020, gerando resultados injustos, sem explicabilidade, e prejudicando estudantes de escolas públicas.

Por essa razão é que os formuladores de políticas públicas e servidores precisarão cada vez mais aprender a gerenciar os sistemas de IA, visando a mitigar vieses e garantir transparência e explicabilidade – princípios estes já contidos, inclusive, na proposta legislativa do marco nacional.

A regulação da IA exigirá, naturalmente, um salto de maturidade no setor público. Nesse sentido, tanto reguladores como usuários no setor público dos sistemas de IA precisam passar por capacitações para compreender melhor o uso dos sistemas de IA e a lógica subjacente ao seu funcionamento. Ademais, um obstáculo significativo neste segmento tecnológico reside em sua natureza interdisciplinar — abrangendo ciências da computação, matemática, direito, administração, entre outras —, o que imporá um considerável desafio às instituições de ensino na formação dos futuros profissionais do setor público [4].

Não é suficiente que os concursos públicos incluam questões sobre transparência, ética e vieses em IA para os candidatos: é necessário que o Brasil crie programas estruturados de letramento em IA para servidores públicos.

A Estônia, por exemplo, treina servidores para supervisionar algoritmos no Unemployment Insurance Fund, ajudando na recolocação de trabalhadores. Cingapura, referência mundial no uso de IA no setor público, possui um Escritório de Transformação e um Laboratório de Inovação, que promove capacitação, inovação e mudança de mentalidade em todo o serviço público.

Caso esse desafio seja negligenciado, haverá um risco real de que a regulação da IA no setor público, bem como a própria aplicação prática de ferramentas de IA pelo setor público, seja conduzida por atores sem domínio técnico e jurídico mínimo em regulação de novas tecnologias, reproduzindo o senso comum com roupagem normativa. Isso não apenas compromete a efetividade das normas; pode, ademais, gerar efeitos perversos, como a criação de barreiras artificiais no uso de sistemas de IA que tragam uma regulação excessivamente burocrática.

Desafio da justiça algorítmica

Aqui, merece destaque o conceito de justiça algorítmica (algorithmic fairness) [5], que tem adquirido centralidade nas discussões jurídicas e regulatórias sobre IA. Em síntese, a justiça algorítmica visa assegurar resultados equitativos na tomada de decisão automatizada no governo por meio de algoritmos, especialmente em áreas de grande relevo social.

Embora seja frequente a expectativa de que os algoritmos garantam decisões mais objetivas e livres de subjetividades humanas, diversos estudos recentes têm apontado justamente na direção contrária. Tais sistemas frequentemente reproduzem ou, em certos casos, acentuam preconceitos já existentes, sobretudo em razão dos vieses (bias) históricos presentes nos dados utilizados para seu treinamento, assim como devido a decisões metodológicas dos próprios desenvolvedores desses modelos.

Esses vieses não decorrem apenas de limitações estritamente técnicas dos dados, tais como erros amostrais ou falhas de mensuração, mas também são resultados de desigualdades sociais pré-existentes que acabam sendo refletidas nos dados coletados, fenômeno conhecido na literatura como societal bias [6]. Por esse motivo, a implementação da justiça algorítmica constitui um desafio não apenas técnico, mas também ético e jurídico, dada a complexidade e o caráter multidimensional dessa questão.

Diversas métricas têm sido propostas com o objetivo de mitigar tais desigualdades, dentre elas a paridade demográfica (demographic parity), a igualdade de oportunidades (equalized odds) e a justiça individual (individual fairness). Todavia, essas abordagens nem sempre são convergentes, existindo tensões entre a busca por equidade e a precisão dos algoritmos empregados. Em decorrência disso, é imprescindível que a escolha das métricas e estratégias de justiça algorítmica leve em consideração as especificidades normativas, sociais e institucionais de cada contexto regulatório, especialmente no setor público.

Desafio do accountability

Quem é responsável quando um sistema de IA toma uma decisão equivocada? A tendência é a de responsabilizar o agente público, ou seja, o “CPF” do tomador de decisão. Tal enfoque levou até à recente alteração da Lei nº 8.429/1992 e o surgimento do artigo 28 da Lindb, com o objetivo de tentar mitigar esse efeito.

Isso pode gerar uma resistência dos agentes públicos no uso de sistemas de IA para auxiliar na tomada de decisão, prejudicando a governança de IA no setor público. O problema, portanto, requer ponderação: o caso SyRI (System Risk Indication), ocorrido na Holanda, permite extrair reflexões importantes. Ali, foi criado um algoritmo opaco que acusou falsamente milhares de cidadãos, de fraudes em benefícios sociais, gerando investigações invasivas, estigma e traumas psicológicos, o que tornou inevitável, em 2020, o seu banimento e a responsabilização objetiva do Estado.

Reclamou-se, no caso, da i) falta de transparência do governo, que aparentemente mantinha o algoritmo e os indicadores de risco em segredo, alegando que a divulgação permitiria a fraudadores “burlar o sistema”; (ii) ausência de notificação aos cidadãos afetados, apenas publicações no Government Gazette, pouco acessado; e iii) sua discriminação social, à medida que o SyRI foi usado apenas em bairros de baixa renda, com alta presença de imigrantes, gerando discriminação indireta.

No direito brasileiro, excepcionalmente, uma responsabilização individual poderia ser afastada caso houvesse uma justificativa robusta que atendesse plenamente ao princípio da motivação das decisões administrativas e judiciais, cenário considerado de difícil ocorrência em contextos de opacidade ou discriminação.

Eis o desafio da complexidade das situações jurídicas de cada caso concreto. Principalmente em modelos de linguagem, que são open-ended e possuem aprendizado em autossupervisão, isso se torna desafiador. Os modelos podem gerar infinitos outputs [7]. De qualquer forma, desde logo se mostra crucial existir processos de revisão humana desse tipo de decisão no setor público (meaningful human control), justamente para que o seu controle tenha poder preventivo dos resultados e seja mais voltado à reforma e adequação do que à punição por eventuais equívocos. Do contrário, se a mentalidade for muito voltada à sanção ao agente público, o uso da IA pelo setor público pode não prosperar. O que teremos é o novo “apagão das canetas: versão algorítmica”.

Desafio principiológico do direito público brasileiro

O direito público é baseado fundamentalmente na aplicação de princípios jurídicos. Todavia, certo é que a regulação da IA exigirá a conciliação de princípios “novos” (auditabilidade, transparência algorítmica, explicabilidade) com os clássicos mandamentos previstos pelo art. 37 da CF, sem prejuízos de outros, implícitos, mas fundamentais, como o interesse público, por exemplo.

Diante da complexidade técnica inerente à aplicação de sistemas de IA no setor público, os sanboxes regulatórios, previstos no PL 2.238/2023 e pela LC nº 182/2021, descortinam-se como medidas capazes de viabilizar testes controlados na perquirição da harmonia prática dos ditos princípios operacionais, próprios ao funcionamento dos algoritmos (como auditabilidade e explicabilidade), com os princípios constitucionais gerais (como legalidade e publicidade).

Nesse sentido, os sandboxes, juridicamente, designam um ambiente normativo experimental que pode autorizar a testagem da aplicação de sistemas de IA em serviços públicos, como triagem de benefícios, gestão fiscal, ou até mesmo gestão de tráfego por meio de computação quântica [8], sob a devida supervisão regulatória (mas com dispensa temporária de exigências), desde que respeitados limites de uso ético da IA.

Não se pode olvidar que, embora o sandbox seja bastante praticado para a inovação comercial no setor privado, o setor público também precisará utilizar ambientes regulatórios experimentais para aplicar, sem ferir as leis e a CF, os sistemas de IA na prestação de serviços e utilidades públicas aos cidadãos. Aplicar sistemas de IA em larga escala sem a devida testagem prévia pode ser algo extremamente arriscado para toda a sociedade.

Conclusão

Este artigo trouxe alguns dos múltiplos desafios inerentes ao uso de sistemas de IA no setor público. Conforme explorado, a regulação da IA e a boa governança da IA no setor público brasileiro exige o enfrentamento de desafios como o letramento digital e técnico dos agentes públicos, a reinterpretação e harmonização de princípios jurídicos fundamentais com as novas realidades algorítmicas, a justiça algorítmica, e a definição correta dos limites do accountability dos agentes públicos envolvidos.

Neste caminho, outro ponto relevante será a gestão de todo esse conhecimento que será gerado neste processo. Mesmo que servidores individualmente busquem capacitação, o conhecimento precisará ser institucionalizado: documentado, compartilhado entre unidades, e incorporado a rotinas de trabalho.

A janela de oportunidade para o Brasil construir um marco regulatório equilibrado e adequado à sua realidade, com lições aprendidas de experiências estrangeiras na governança do uso da IA pelo setor público, mas sem constituir mera “cópia” de modelos de outros países, está aberta.

____________________________

[1] Para detalhes sobre a regulação da inteligência artificial na Europa e em outros países selecionados, ver o trabalho de BERTOLINI, Andrea et al. Regulation of Artificial Intelligence. In: MARSEGLIA, Roberto et al (coords.). Socio-economic Impact of Artificial Intelligence: a European Management Perspective. Cham: Springer, 2024, p. 59-69.

[2] The EU AI Act: answers to Frequently Asked Questions. Berlin: Springer, 2024, p. 4.

[3] GEROIMENKO, Vladimir. The Essential Guide to Prompt Engineering: key principles, techniques, challenges, and security risks. Cham: Springer, 2025, p. 61.

[4] Cumpre aqui destacar a iniciativa da Universidade de Leiden. Cf. POSTHOFF, Christian. Artificial Intelligence for Everyone. Cham: Springer, 2024, p. 193.

[5] MITCHELL, S. et al. Algorithmic Fairness: Choices, Assumptions, and Definitions. Annual Review of Statistics and Its Application, v. 8, p. 141–163, 2021.

[6] PESSACH, Dana; SHMUELI, Erez. Algorithmic fairness. In: Machine Learning for Data Science Handbook: Data Mining and Knowledge Discovery Handbook. Cham: Springer, 2023. p. 867-886.

[7] HUYEN, Chip. AI Engineering: building applications with foundation models. Sebastopol: O’Reilly, 2025, p. 5 e CHEN, Robert; CHEN; Chelsa. Artificial Intelligence: an introduction to the big ideas and their development. 2. ed. Boca Raton: CRC Press, 2025, p.236.

[8] NATARAJAN, Gnanasankaran et al. Quantum Computers – Real-World Applications and Challenges. In: RAJ, Pethuru et al (coords.). Quantum Computing and Artificial Intelligence: the industry use cases, Hoboken: Wiley, 2025, p. 68.

Autores

  • é bacharel, mestre e doutor em Direito pela USP (Universidade de São Paulo), tendo seu trabalho recebido o Prêmio Capes de Tese 2014. Realizou estudos em nível de pós-doutorado no Massachusetts Institute of Technology (MIT) e na Faculdade de Direito da USP.

  • é bacharel pela Faculdade de Direito de São Bernardo do Campo (SP), especialista em Direito da Infraestrutura pela Escola de Direito de São Paulo da Fundação Getúlio Vargas, mestre em Direito do Estado pela Universidade de São Paulo, advogado e consultor jurídico em São Paulo e simpatizante dos chamados games retrô.

  • fez estágio doutoral no MIT (Massachusetts Institute of Technology) e estudos pós-doutorais como visiting scholar na Asia School of Business in collaboration with MIT Sloan Management. Especialista em Data Science aplicada ao Direito e jurimetria.

Encontrou um erro? Avise nossa equipe!