TECNOCRACIA

Cortes dos EUA recorrem a multas para conter precedentes falsos gerados por IA

Autor

4 de março de 2025, 14h51

Entre as possíveis sanções para punir advogados que citam, em suas petições, precedentes que não existem, devido ao uso da inteligência artificial, as cortes dos Estados Unidos estão optando por aplicar multas.

inteligência artificial

Advogados têm sido multados por conta do uso de IA generativa que fabrica precedentes falsos

O último caso envolve a Morgan & Morgan, uma das maiores bancas dos EUA, dedicada a mover ações indenizatórias, especialmente por lesões corporais resultantes de acidentes. Três advogados do escritório foram multados por um tribunal federal em Wyoming por citar, em uma petição, oito precedentes que não existem.

Os três representaram um cliente em uma ação indenizatória contra o Walmart. O advogado Rudwin Ayala foi o autor da petição inicial e a protocolou no tribunal. Foi multado em US$ 3 mil e perdeu seu “status pro hac vice” (para este fim) na ação que, no final das contas, foi encerrada.

Os dois outros advogados, T. Michael Morgan e Taly Goody, apenas assinaram a petição às cegas. Foram multados em US$ 1 mil cada um. O juiz federal Kelly Rankin “não viu indicação de que eles se envolveram na redação da petição, nem de que a leram”. Mesmo assim, atribuiu a eles alguma responsabilidade.

“Advogados têm um dever ético de checar as citações usadas em suas petições e de ler o caso para se assegurar de que o excerto é de uma lei existente, para fundamentar afirmações e argumentos”, ele escreveu em sua ordem.

“Os três advogados violaram, não obstante, a Regra Federal do Código Civil, ao apresentar ao tribunal uma petição em que certificaram que seus argumentos são garantidos por lei existente ou por um argumento não frívolo para mudar a lei.”

De qualquer forma, o juiz foi condescendente ao fixar o valor das multas, por causa da reação corretiva imediata da Morgan & Morgan. Depois de notificada sobre as citações falsas, a banca reconheceu que elas foram geradas pelo seu programa de IA e pediu desculpas.

Além disso, a banca pediu a retirada da ação (Wadsworth v. Walmart Inc.), pagou os honorários dos advogados da parte adversária e informou à corte que implementou novos protocolos de treinamento sobre o uso da inteligência artificial por seus advogados. A banca não foi sancionada.

Não teve a mesma sorte

Um juiz de um tribunal federal em Indiana foi menos generoso com um advogado que citou, em sua petição, precedentes fictícios, gerados por IA. Aplicou-lhe uma multa de US$ 15 mil — US$ 5 mil para cada uma das três citações falsas encontradas em sua petição inicial.

O advogado Rafael Ramirez admitiu, em uma audiência em janeiro, que “usava ferramentas de IA para redigir acordos e outros documentos jurídicos”. Afirmou que, no entanto, “não tinha conhecimento de que a IA gerava citações falsas”.

O juiz Mark Dinsmore o considerou “culpado por deixar de verificar a autenticidade dos três precedentes citados em sua petição, que foram inteiramente fabricados pela IA”.

Outros casos recentes

Em uma ação contra a Goodyear Tire & Rubber, por demissão sem justa causa, um advogado foi multado em US$ 2 mil por protocolar uma petição com citações de precedentes inexistentes geradas por IA. Além disso, ele foi obrigado a frequentar um curso sobre o uso de IA no campo jurídico.

Em outro caso semelhante, dois advogados de Nova York sofreram sanções por protocolar uma petição que incluía seis citações de casos fictícios geradas pelo ChatGPT. Um juiz federal impôs uma multa de US$ 5 mil aos advogados e a seu escritório de advocacia, enfatizando a necessidade de verificar informações geradas por IA.

No caso Mata v. Avianca, os advogados Peter LoDuca e Steven Schwartz, da banca Levidow, Levidow & Oberman, foram sancionados em US$ 5 mil pelo juiz Kevin Castel, do Distrito Sul de Nova York. O juiz descobriu que eles incluíram em sua petição seis citações de precedentes inexistentes, fabricadas pelo ChatGPT.

No caso Iglesia v. Google, o advogado Ryan Edmondson foi multado em US$ 2.500, por um juiz federal na Califórnia, por incluir citações de precedentes que não existiam, mas foram fabricadas pela inteligência artificial.

Em Diaz Avila v. United States, um defensor público no Colorado foi advertido pelo tribunal por incluir em sua petição decisões judiciais fictícias e citações falsas, todas geradas por IA.

Em Jimenez v. Department of Veterans Affairs, o juiz ordenou a um advogado, que representava um veterano de guerra, que apresentasse à corte as razões pelas quais ele não deveria ser sancionado, depois que ele incluiu precedentes forjados em um recurso.

Em um litígio sobre o talco da Johnson & Johnson, um advogado foi repreendido por protocolar uma petição gerada por IA, que continha precedentes inexistentes.

Consequências previstas

Quais são as consequências, nos EUA, para advogados e bancas que criam problemas para Justiça em razão dos precedentes falsos gerados por inteligência artificial? De acordo com o ChatGPT (da OpenAI), a Claude (da Anthropic) e o Gemini (do Google), são aplicáveis algumas sanções e há outras consequências.

A aplicação de multa se tornou a sanção mais comum. Mas o advogado pode, ainda, estar sujeito à reprimenda pública, à abertura de processo disciplinar ou de violação da ética profissional. Pode ser ordenado a fazer curso de ética ou treinamento sobre inteligência artificial.

Pode, ainda, ser suspenso ou ter sua licença cassada (com intervenção da seccional da ABA no estado), se houver repetição da falha ou se for um caso grave de má conduta. E também está sujeito a ser processado (ou responsabilizado) por imperícia.

Repercussões na imprensa de tais sanções podem manchar a reputação do advogado e resultar na perda de credibilidade com clientes, juízes e colegas de profissão. A banca pode perder clientes desconfiados. O processo pode ser trancado.

A conclusão é a de que a inteligência artificial pode ser muito útil. Mas a responsabilidade profissional do advogado não pode ser delegada à tecnologia.

Autores

Encontrou um erro? Avise nossa equipe!