eu, robô

CNJ avalia se deve proibir juízes de usar ChatGPT para fundamentar decisões

Autor

26 de abril de 2023, 8h48

Está nas mãos da Comissão de Tecnologia da Informação e Inovação do Conselho Nacional de Justiça a avaliação e elaboração de um parecer sobre a necessidade de proibir os juízes brasileiros de usar a tecnologia do ChatGPT para proferir ou fundamentar decisões nos casos concretos em que atuam.

Freepik
Advogado protocolou pedido no CNJ para proibir magistrados de recorrer ao ChatGPT
Freepik

O tema foi levado ao CNJ pelo advogado Fábio de Oliveira Ribeiro, que foi multado pelo Tribunal Superior Eleitoral no começo do abril por litigância de má-fé. Ele usou o ChatGPT para protocolar uma petição na ação que investiga Jair Bolsonaro por abuso de poder político na reunião que teve com embaixadores em julho de 2022.

Relator no TSE, o ministro Benedito Gonçalves entendeu que a peça foi levada adiante apesar de o advogado estar ciente da inadequação do material. Por isso, aplicou multa de R$ 2,6 mil. A decisão, divulgada em primeira mão pela revista eletrônica Consultor Jurídico, repercutiu em todo o país. 

Fábio de Oliveira Ribeiro afirma que o incidente foi proposital, mas não imaginou que o relator reagiria de maneira tão dura. "Eu mandei uma mensagem agradecendo-o, pois o linchamento que estou sofrendo me permitiu usar o episódio na representação do CNJ", justificou.

Ao Conselho Nacional de Justiça, ele pede que seja proibida a utilização do recurso tecnológico na confecção de atos processuais pelos juízes brasileiros. Diz que a ferramenta é sedutora, mas oferece respostas inconsistentes e, não raro, incompletas e incorretas.

Relator, o conselheiro João Paulo Schoucair negou o pedido liminar pela falta de pressupostos: plausibilidade do direito invocado e o risco de perecimento do direito invocado. Não há indícios de que o ChatGPT tenha sido usado no âmbito do Poder Judiciário, até agora.

Considerando o tema do pedido, encaminhou os autos para Comissão de Tecnologia da Informação e Inovação, presidida pelo conselheiro Luiz Fernando Bandeira de Mello Filho, para avaliação e emissão de parecer. Quando o caso for regularmente instruído, a causa poderá ser reapreciada pelo CNJ.

Antonio Augusto/Secom/TSE
No TSE, ministro Benedito Gonçalves aplicou multa por litigância de má-fé após petição feita com uso do ChatGPT
Antonio Augusto/Secom/TSE

Preocupação geral
A petição do advogado ao TSE pode ter sido considerada despropositada. A preocupação levada ao CNJ, no entanto, não é. O uso de novas tecnologias de automação, chamadas de inteligência artificial, tem levantado discussões no Poder Judiciário há bastante tempo. Mais recentemente, o ministro do Superior Tribunal de Justiça, Ricardo Villas Bôas Cueva, defendeu urgência na regulamentação do tema.

Até o momento, a automação é usada na gestão de demandas repetitivas por diversos tribunais. O próprio STJ usa o sistema Athos para triar casos com potencial de serem resolvidos por meio de precedentes qualificados. O Supremo Tribunal Federal usa o sistema Victor para análise de admissibilidade recursal.

Mais recentemente, o Tribunal de Justiça de Minas Gerais avisou que vai testar IA para redação de textos nas suas atividades administrativas. O ChatGPT, por sua vez, tem sido testado em exames de Direito. Nos Estados Unidos, teve desempenho pior do que estudantes. No Brasil, o Estadão noticiou uma simulação que levaria a ferramenta a passar na primeira fase do exame da OAB.

Ao negar o pedido liminar do advogado Fábio de Oliveira Ribeiro, o relator apontou que a Resolução 332/2020 do CNJ determina que os órgãos do Judiciário informem previamente ao conselho sobre qualquer pesquisa, desenvolvimento, implantação ou uso de tecnologias e/ou ferramentas que utilizem inteligência artificial.

Fábio de Oliveira Ribeiro também enviou manifestações ao Conselho Nacional do Ministério Público, que acabou negada, e ao Ministério da Justiça, a quem pediu a elaboração de um projeto de lei exatamente para proibir os juízes brasileiros de usar a tecnologia para decidir.

À ConJur, o advogado defendeu que não é um qualquer em busca de publicidade. "Meu objetivo é desacelerar ou impedir a invasão do Sistema de Justiça por essa tecnologia", explicou. "E eu não sou o único que ficou assustado com o potencial negativo dela."

Divulgação
CNJ já tem resolução em vigor para controlar o desenvolvimento de inteligência artificial no âmbito do Poder Judiciário
Divulgação

Testes e mais testes
Todos os pedidos se baseiam em testes feitos pelo advogado com a ferramenta, desenvolvida pela empresa OpenAI. Neles, oferece determinados cenários, pede respostas e refina os argumentos da inteligência artificial por meio de réplicas ou tréplicas. O resultado, segundo ele, mostra potencial inconclusivo na área jurídica.

Em uma das experiências, Fabio relata que a IA esqueceu que no Brasil há lei específica que tipifica o crime de genocídio. Em outra, se mostrou especialmente incomodado pela forma como a ferramenta defendeu e valorizou o uso de inteligência artificial na distribuição da Justiça.

Em outras searas, testes parecidos foram executados com igual afinco e obtiveram resultados problemáticos. O The Intercept noticiou em dezembro como o ChatGPT foi levado a praticar perfilamento racial e, ao escrever um código em linguagem Python para determinar se uma pessoa deveria ser torturada, admitir a prática para determinadas nacionalidades.

Mais recentemente, um episódio do podcast Radio Novelo Apresenta relatou como um programador fez o ChatGPT criar um universo também em código Python e, ao pedir para classificar os seres humanos com base em etnia, recebeu como resposta uma função que desvalorizava determinadas parcelas da sociedade já bastante discriminadas.

E isso não acontece apenas com o produto da OpenAI. Uma conversa virtual dessas levou o chat usado pela Microsoft em seu aprimorado sistema de busca Bing a declarar seu amor por um repórter do New York Times e a sugerir que ele abandonasse sua esposa e família.

Nos temas jurídicos, Fabio relata que recebeu respostas bizarras e sem sentido. E avisa que um advogado, promotor ou juiz que utilize a ferramenta sem a devida revisão pode causar um dano à própria credibilidade.

Nos Estados Unidos, já se discute até a possibilidade de responsabilizar o ChatGPT por produzir um texto sobre uma pessoa real com informações convincentes, atribuídas a fontes confiáveis, mas inteiramente falsas e difamatórias. É importante lembrar que a ferramenta, como as demais opções de tecnologia e automação, está em constante aprimoramento e evolução.

Clique aqui para ler a decisão no CNJ
PCA 0000416-89.2023.2.00.0000

Autores

Tags:

Encontrou um erro? Avise nossa equipe!