Interesse Público

Políticas públicas e inteligência artificial: uma relação delicada

Autor

  • Vanice Valle

    é professora da Universidade Federal de Goiás visiting fellow no Human Rights Program da Harvard Law School pós-doutora em administração pela Ebape-FGV doutora em Direito pela Universidade Gama Filho procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

22 de fevereiro de 2024, 8h00

O Direito, refletindo – como é de ser – a sociedade a quem ele se destina, periodicamente é sacudido por novas tendências que promoveriam a sua atualização; medida destinada a ampliar seu potencial de resposta aos fenômenos e comportamentos manifestos na coletividade. Hoje, pelo menos duas @newtrends irradiadas por coletividades em todo o mundo se manifestam também no cenário mais limitado do debate jurídico.

A primeira delas, inaugurada por uma chamada à reflexão liderada por Maria Paula Dallari Bucci, envolve o encontro a ser promovido entre o Direito e as políticas públicas; passo indispensável para que as promessas de transformação de um constitucionalismo de mesmo cariz se concretizem na ação administrativa. A segunda tendência se apresenta sob a flexível denominação de “Direito Digital” – uma espécie de conglomerado de matrizes normativas orientadas a disciplinar esse admirável mundo novo da tecnologia e suas várias manifestações na coletividade. Anuncia-se o potencial de aprimoramento da ação estatal com a conjugação de políticas públicas e novas tecnologias da informação e da comunicação (NTICs) — em especial, a IA — como a nova redenção para a ação estatal.

A adaptação do Direito às novas tendências
O problema está em que ambas as new trends se apresentam como terreno fértil à mutabilidade e celeridade – atributos que o Direito tem grande dificuldade em recepcionar, na medida em que seu objetivo central, em se cuidando de Estado Democrático de Direito (segurança jurídica), navega justamente na direção da estabilidade e previsibilidade. O Direito é chamado a conter as NTICs para que elas se revelem efetivamente úteis à coletividade, inclusive no desenho de políticas públicas – mas sua orientação finalística é orientada a um resultado que não é valorizado por estas duas últimas.

A realidade, todavia, é inclemente – políticas públicas são indispensáveis à ordenação eficiente da ação estatal, e novas tecnologias podem ofertar não só mecanismos facilitadores do acesso ao Estado, mas também dados que contribuam à otimização das estratégias de enfrentamento de problemas públicos, mitigando o bloqueio onipresente da escassez de recursos. Imperativo, portanto, que o Direito se abra à compreensão da verdadeira natureza de ambas as tendências, e busque uma adaptação de seu ferramental para uma realidade nova em relação à qual ele é de incidir.

Em pelo menos duas vertentes já se identifica o estranhamento subjacente entre o Direito (da estática) e as referidas novas tendências (terreno da dinâmica). A primeira delas diz respeito à regulação de novas tecnologias; a segunda versa sobre o potencial de orientação de políticas públicas a partir de produtos resultantes da aplicação de mecanismos de IA.

No campo da regulação, um reclamo inegável envolve a contenção de comportamentos reputados abusivos ou geradores de riscos a bens da vida constitucionalmente protegidos. O problema está em como construir uma matriz regulatória que tenha efetivamente esse potencial de contenção em relação a práticas socialmente indesejadas, que se manifestam num entrelaçamento de novas tecnologias que por vezes não é sequer compreendido pelos legisladores.

Spacca

Assim, a veiculação de deep fake news, por exemplo, é apontada como exemplo de manifesto risco democrático – mas há pouca clareza em relação a qual a esfera em que esta prática deva ser coibida: na aplicação da IA generativa que deu ensejo ao material ilusório? Na plataforma de comunicação (rede social, ou serviço de mensageria) em que ela circulou? Em ambas?

Risco de discussão inesgotável
Apresenta-se ainda, como desafio à matriz regulatória, a tipificação do que se deseje efetivamente coibir. A título de simples ilustração, tenha-se em conta o artigo 5º, 1, “a”, do Artificial Intelligence Act, em fase ainda de aprovação no âmbito da União Europeia, que define como prática proibida “a colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa para distorcer substancialmente o seu comportamento de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a outra pessoa”.

A cláusula dispõe de uma abertura interpretativa que soa inicialmente como inadequada a uma regra de proibição – mas como delimitar de forma clara o comportamento indesejável, num cenário em que o potencial de uso de cada qual das tecnologias em si é sempre crescente, e se exponencia com a combinação de várias delas? O risco na aplicação da velha fórmula de comando-sanção, associada à tipificação de condutas, é de que a discussão quanto à subsunção seja inesgotável. É preciso encontrar novas fórmulas.

Curiosamente, o esforço de regulação de IA parece envolver uma apreciação menos de uma conduta em concreto, e mais de uma análise de contexto e processo [1]. Frequentemente, não será a imagem em si gerada por IA que terá o risco potencial, mas sim o contexto em que ela é lançada – nisso se incluindo o momento no tempo, o veículo de divulgação, e outros elementos dinâmicos, que podem conferir àquela imagem um significado e efeito de que ela não se revestiria em outro cenário.

Vida real e ambiente virtual
O ponto negativo dessa constatação está em que a análise de contexto e processo tende a ser mais lenta – e com isso, uma vez mais se verifica uma fragilidade do ferramental tradicional do Direito para o enfrentamento dos desafios oriundos de novas tecnologias, em especial, de IA. Mais que isso, as garantias clássicas como a do devido processo, limitam o potencial de resposta pelo ordenamento jurídico com a mesma velocidade e alcance da ofensa. É preciso reformatar as velhas categorias para um mundo novo que opera sob outras bases.

Revela-se simplista, portanto, a afirmação do ministro Alexandre de Moraes de que “a regra é simples: o que não pode na vida real também não pode no ambiente virtual” [2]. A afirmação refuta fatos: o ambiente virtual, por suas próprias características, desafia os limites que espaço e tempo propõem ao ambiente analógico. A par disso, o desafio não repousa simplesmente na identificação da conduta indesejável, mas especialmente na oferta pelo Direito, de uma resposta que tenha o potencial de coibir o comportamento potencialmente danoso.

O Direito e a aplicação de IA às políticas públicas
As zonas de atrito não se reduzem quando se dá a combinação dos três componentes do título: Direito, políticas públicas e IA.

Mecanismos de inteligência artificial têm sido apontados como ferramenta útil em matéria de políticas públicas, seja pelo que eles podem informar a partir de dados históricos e preditores fracos identificados nestas mesmas bases de dados[3]; seja pelos modelos preditivos que eles podem produzir, permitindo uma projeção em tese acurada, de quais sejam os efeitos possíveis da política pública em cogitação. No calor da @newtrend, identifica-se um discurso quase messiânico, de que o uso adequado de IA permitirá alcançar o ideal constitucional da eficiência – e de que qualquer resultado diferente disso revelará inépcia, quiçá improbidade de parte do gestor público.

Essa crença inabalável nas virtudes do digital é identificada por Bridle [4] como “pensamento computacional”, que “é uma extensão do que os outros chama de solucionismo: a crença de que qualquer problema se resolve quando se aplica a computação”.

No campo das políticas públicas, é certo que a IA pode contribuir seja na etapa de conhecimento do problema (antecedendo à sua formulação); seja no acompanhamento da implementação, e ainda da avaliação. Efeitos colaterais, positivos ou negativos de uma determinada estratégia podem ser identificados pelos já referidos preditores fracos; subcobertura ou excesso de cobertura podem igualmente ser identificados com mais precisão com o concurso de mecanismos de IA. Mas, também aqui a aproximação é de se dar com cautela. O Direito preconiza obrigações de resultado – mas eles não se têm por automaticamente assegurados pela simples aplicação de IA às políticas públicas.

O uso de mecanismos de IA para a oferta de base empírica para a formulação de políticas públicas traz em si os riscos inerentes aos vieses das informações factuais existentes nas bases de dados eventualmente utilizadas para o referido desenho. É preciso, portanto, uma filtragem crítica em relação a esse aporte estatístico trazido pela IA – afinal, é disso que se trata; o veículo de transmissão da estatística não a qualifica de maneira especial.

Já no campo da aplicação de modelos preditivos, o desafio está no prognóstico das externalidades que podem afetar a predição – e penso que aí merece destaque o imprevisível do comportamento humano. A primazia da racionalidade, preconizada pelo Iluminismo, pode ser um discurso que nos tenha libertado no jugo da fé como instrumento único para a compreensão do mundo – mas essa racionalidade libertadora não é uma característica humana predominante. Assim, a lógica cartesiana de modelos preditivos pode não encontrar ressonância nos destinatários de políticas públicas, que podem desenvolver comportamentos imprevisíveis, inexplicáveis pelo prisma da racionalidade computacional – mas típicos de humanos. Oportuno trazer-se à baila outro campo de reflexão frequentemente ignorado pelo Direito, a saber, a economia comportamental.

O desafio para o Direito, no cenário sugerido neste ensaio, é reconhecer a insuficiência de suas estruturas tradicionais, muitas delas construídas para exercício na Ágora. Limites (Direito), estratégia (políticas públicas) e informação (IA) devem buscar meios de convívio que contribuam reciprocamente para o desenvolvimento de cada qual das respectivas funções, sem proclamações escapistas de uma aptidão que o Direito não terá para trazer o gênio de volta à garrafa.


[1] Digo curiosamente, porque em que pese os avanços no desenvolvimento de mecanismos de IA, com a incorporação do deep learning, fato é que a inteligência de contexto ainda é a grande fronteira desta tecnologia em particular.

[2] CASTRO, Juliana e MATIAS, Juliana. Para Moraes, big techs devem ser equiparadas a empresas de comunicação. Jota. Em 13/03/2023, disponível em https://www.jota.info/stf/do-supremo/big-techs-nao-podem-fazer-a-politica-do-avestruz-diz-moraes-sobre-combate-a-fake-news-13032023, acesso em 20 de fevereiro de 2024.

[3] É de Kai-Fu Lee o apontamento de que mecanismos de IA são capazes de identificar preditores fracos, a saber, “pontos de dados periféricos que podem parecer não ter relação com o resultado, mas contém algum poder de predição quando combinados em dezenas de milhões de exemplos”. (LEE, Kai-Fu.  Inteligência artificial. Como os robes estão mudando o mundo, a forma como amamos, nos relacionamos, trabalhamos e vivemos. Tradução Marcelo Barbão. Rio de Janeiro: Globo Livros, 2019, p. 136-137).

[4] BRIDLE, James.  A nova idade das trevas. A tecnologia e o fim do futuro. Tradução Érico Assis. São Paulo: Todavia, 2019, p. 12.

Autores

  • é professora da Universidade Federal de Goiás, visiting fellow no Human Rights Program da Harvard Law School, pós-doutora em Administração pela Ebape-FGV, doutora em Direito pela Universidade Gama Filho, procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

Encontrou um erro? Avise nossa equipe!