Opinião

Inteligência artificial e precedentes: estamos prontos?

Autor

17 de novembro de 2022, 19h30

O termo "inteligência artificial" (IA) foi utilizado oficialmente pela primeira vez na conferência "Dartmouth Summer Research Project on Artificial Intelligence", realizada em 1956, nos Estados Unidos, sob o comando de John McCarthy e com a participação de Marvin Minsky, Nathaniel Rochester e Claude Shannon. É indiscutível, porém, que os fundamentos da IA de fato surgiram com Alan Turing, o "pai da computação", como é conhecido pela comunidade científica e que em 1950 publicou relevante artigo chamado "Computing Machinery and Intelligence". Nesse documento, o matemático propõe um modelo para se testar a capacidade das máquinas de pensar como o ser humano, metodologia essa que tem aplicação científica até hoje.

Marvin Minsky, por sua vez, teve a relevância de continuar o desenvolvimento dos pilares da IA, o que levou à construção que se tem na atualidade. O professor bem definiu a inteligência artificial como "a ciência de fazer que as máquinas façam coisas que exigiriam inteligência se feitas por um ser humano" [1].

Basicamente, pode se dizer que hoje em dia a IA é aplicada de maneira restrita e para resolver problemas bastante específico, por meio de diversas técnicas computacionais. Essas técnicas podem ser divididas em duas grandes abordagens: (1) a abordagem baseada em conhecimento, que nasceu dos primeiros esforços de utilização da IA e se baseia no mapeamento de conhecimentos específicos, para sua posterior codificação e criação de um sistema de "if" ("se"), ou seja, em que a máquina aplica o conhecimento codificado, de maneira binária e observando as condições que foram imputadas no sistema, para resolver os problemas, mas não tem a capacidade de desenvolver um aprendizado, de aprimorar sua aplicação; e (2) a abordagem do aprendizado estatístico, que consiste na adoção de técnicas que permitem à máquina aprender por meios estatísticos, ou seja, através dos dados que são inseridos na tecnologia, ela é capaz de desenvolver um processo contínuo de aprendizado e aprimoramento do tipo de resolução de problema que executa (é o que se chama atualmente de "machine learning") [2].

A abordagem baseada em conhecimento está defasada, de modo que todos os esforços de ciência e desenvolvimento hoje em dia estão focados no machine learning, cujo modelo de aprendizado funciona em um fluxo diferenciado, que começa com a inserção de dados de entrada na máquina, para que a tecnologia crie, então, seu próprio modelo de solução do problema e, a partir dos dados de saída (resultados da aplicação do modelo) em conjunto com os dados de entrada, o sistema possa aprimorar sua atuação. Em outras palavras, a cada resolução de problema realizada, a máquina aprende com o resultado e melhora sua performance nas próximas resoluções.

O aprendizado demanda, de qualquer forma, que um grande volume de informações seja inicialmente imputado no sistema. Quanto maior o volume de dados, maior a precisão e capacidade geral de resolver problemas da máquina. Esse aprendizado pode ser dar, essencialmente, de três principais formas: (1) o aprendizado supervisionado, em que toda a massa de dados é primeiramente inserida no sistema de maneira "rotulada", ou seja, há uma prévia classificação e definição dos dados antes de sua inserção na máquina; (2) o aprendizado não supervisionado, que também trabalha com o um volume grande de dados iniciais, porém não rotulados, ou seja, sem uma prévia classificação e definição das informações; e (3) o aprendizado por reforço, em que são necessários poucos dados iniciais e o sistema tem a capacidade de aprender mediante tentativa e erro.

A importância do volume de dados, como se nota, é grande, de modo que apenas o aprendizado por reforço pode atuar com menos informações inicialmente inseridas. Dentro dessas abordagens, há um conjunto de técnicas específicas utilizadas para o exercício de aprendizagem, como o reconhecimento de fala, o reconhecimento de imagem e o Processamento de Linguagem Natural (PLN).

A IA tem sido aplicada em diversas áreas, como um instrumento de facilitação do trabalho humano. No mundo jurídico, está já bastante presente, principalmente considerando os desafios de administração de grande volume de processos e informações e de uniformização de entendimento dos magistrados.

Visando ainda a eficiência do trabalho do Judiciário, o esforço que tem sido feito neste meio se direciona em grande parte ao uso da IA como instrumento de facilitação na identificação e agrupamento de processos relacionados a determinados precedentes judiciais vinculantes. A partir daí, o sistema passa a localizar os processos em que seja possível a aplicação de um ou outro precedente, facilitando o trabalho dos magistrados [3]. É isso que os sistemas do STF têm sido capazes de fazer, em constante evolução.

Esta toada levanta a discussão sobre os impactos que podem decorrer da automação ampla da aplicação de precedentes e, consequentemente, do julgamento de casos mediante o uso de IA.

O primeiro ponto que surge, sob o aspecto ético-jurídico, é o que decorre do cotejo entre, de um lado, a atividade jurisdicional como é feita atualmente, centralizada na figura do juiz, ser humano capaz de interpretar a norma não só de acordo com valores constitucionais e legais, mas também com base nos dados psicossociais, econômicos, culturais etc. do caso concreto; e de outro lado, a jurisdição feita com grande participação da IA, que, pelo menos hoje, não seria capaz de se utilizar de capacidades intrinsecamente humanas na aplicação da norma, mas sim basear-se-ia estritamente no machine learning, correlacionando, via sistema de aprendizado estatístico, fatos com normas, para “dizer o direito”.

A grande controvérsia que reside nesta temática é sobre se seria o melhor caminho, para fins de pacificação social, a delegação, em níveis mais elevados, da atividade da jurisdição à inteligência artificial. Isso porque é notório que o Direito, por mais que possa ser estudado sob um prisma positivista, de fato é um instituto que está grandemente conectado com outras áreas das ciências humanas, como a psicologia, a sociologia e a economia, de modo que a prática jurídica é indissociável da análise e aplicação de valores humanos.

Nesse sentido, nem mesmo a aplicação de princípios constitucionais aos julgados se dá de maneira absoluta, "por A mais B", mas pode ser diversa, em um mesmo caso, a depender do tempo em que ocorre e de outras circunstâncias, que envolvem os mais diversos aspectos da vida humana. Assim, não são raros os casos em que há aplicação da técnica de distinção (distinguishing) ou até da total superação (overruling), por parte da Corte Suprema, na gestão de precedentes definidos em tempo anterior, em que o contexto e os pensamentos que iluminavam a sociedade eram diversos dos da atualidade.

Outro ponto sensível, em termos éticos, quanto à automação da aplicação de precedentes e de decisões judiciais está atrelado aos resultados que as tecnologias podem produzir. O uso incorreto (propositalmente ou não) de premissas equivocadas como base de dados iniciais para o funcionamento da máquina pode levar à produção de decisões preconceituosas ou deturpadas, muitas vezes sem que tenha havido a devida preocupação do programador quanto a isso, como bem alerta Cathy O'Neill [4].

Na prática, já ocorre este tipo de problema, como exemplifica o caso do sistema Correction Offender Management Profiling for Alternative Sanctions (Compas) adotado por cortes estadunidenses. Trata-se de tecnologia que objetiva identificar o risco de reincidência de determinado preso, a partir de uma série de premissas inseridas no sistema.

Em 2016, a ProPublica, uma entidade de jornalismo investigativo norte americana concluiu um estudo que demonstrou, mediante a análise de dois casos concretos, a existência de vieses raciais nos resultados produzidos pelo Compas [5]. Os casos envolviam dois detentos distintos: Brisha, negra, de 18 anos, que tinha roubado uma bicicleta para chegar a tempo na escola, e Vernon, branco, de 41 anos, que foi preso tentando furtar itens de uma loja de departamento. A conclusão do sistema preditivo foi de que Brisha teria um risco maior de reincidência do que Vernon, mas, na prática, após ambos terem obtido a liberdade, Brisha seguiu por dois anos sem cometer novos crimes, enquanto Vernon foi novamente condenado, desta vez a 8 anos de prisão, por ter roubado uma loja de eletrônicos, gerando um dano de milhares de dólares à vítima.

Essas falhas éticas, que podem ocorrer em qualquer sistema de IA, têm o potencial de gerar problemas sérios para a Justiça, quando atreladas ao sistema de precedentes judiciais, pois um resultado enviesado ou baseado apenas em estatísticas, com pouca consideração da conjuntura social, política e econômica e de outros fatores externos ao Direito, pode levar à criação de precedentes danosos, que por sua vez servem de fundamentação a milhares de decisões judiciais. O que potencializa esta problemática é o fato de que a IA, muitas vezes, é utilizada sob uma aura de neutralidade, bem como de exatidão e complexidade de seus cálculos, o que leva os próprios programadores e os usuários do sistema a confiarem demasiadamente em seus resultados. É o que aponta também O'Neill.

Há um movimento internacional para a direção que parece ser a mais razoável, no que tange a uma atuação preventiva da sociedade, quanto aos riscos que decorrem do uso de IA na gestão e aplicação de precedentes judiciais, bem como na automação de decisões judiciais: a busca de criação de um sistema regulatório do meio, que permita o desenvolvimento da inteligência artificial balizado pelas normas republicanas, em especial pelo respeito à democracia e pela necessária transparência dos sistemas. Idealmente, parece que a fiscalização e observância de certos critérios e procedimentos mínimos deveria ocorrer, essencialmente, em dois momentos: (1) no momento de criação da IA, imputação de dados em seu sistema e criação de seu método de aprendizado, evitando-se a criação de sistemas enviesados e falhos; e (2) em momento em que a IA já esteja em operação, criando formas pré-definidas de auditoria e supervisão do desenvolvimento da IA.

Antes de tudo, porém, parece ser relevante que se amadureça na sociedade como um todo a consciência de que certos passos tecnológicos devem ser tomados com cautela, considerando principalmente o ambiente regulatório em que serão adotados. Talvez, neste momento, o Brasil não esteja preparado para uma automação absoluta da gestão de precedentes, muito menos das decisões judiciais como um todo.

Vale destacar, inclusive, que o sistema de precedentes brasileiro, como é tido hoje, ainda padece de uma série de problemas. Não há um processo claro de como se deve trabalhar os precedentes, o que é objetivo de crítica pela doutrina.

Por exemplo, a ementa, que é um elemento obrigatório de decisões colegiadas, não observa um procedimento padronizado na Justiça brasileira. Há casos em que não há sequer correspondência entre o conteúdo da ementa e o do acórdão [6]. Campestrini [7] é um dos que fazem esta crítica e aponta para o pouquíssimo ou nenhum aperfeiçoamento da técnica de produção de ementas nos últimos anos. O resultado de erros e problemas na redação de ementas é o risco, apontado por Barbosa Moreira, de produção de falsos precedentes [8], gerando danos em cadeia à jurisdição.

Parece, assim, que o uso de IA no cenário jurídico deverá se dar em concomitância com o avanço da regulação e da maturidade social. Sem isso, a adoção desenfreada da tecnologia, em uma busca cega pela eficiência, utilitarismo e velocidade do sistema de Justiça, certamente tem o potencial de gerar danos severos ao país.


[1] Dennis, Michael Aaron. "Marvin Minsky". Encyclopedia Britannica, https://www.britannica.com/biography/Marvin-Lee-Minsky – Acesso em 3/7/2022.

[2] https://www.youtube.com/watch?v=Ze-Q6ZNWpco&t=1048s – Curso de Inteligência Artificial para todos. "Diogo Cortiz, PhD" — Acesso em 3/7/2022.

[4] O'NEILL, Cathy. Weapons of math destruction. NY: Brodway Books, 2016. p. 25 et seq., p. 204, 218, passim

[6] STF, RE 583.955, Plenário, rel. min. Ricardo Lewandowski, j. 28/5/2009; e STF, RE 511.961, Plenário, rel. min. Gilmar Mendes, j. 13/11/2009

[7] CAMPESTRINI, H. Como redigir ementas. São Paulo: Saraiva, 1994.

[8] AGUIAR JÚNIOR, R. R. de. Ementas e sua técnica. Revista de Doutrina da 4ª Região, Porto Alegre, nº 27, dez. 2008.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!