Inteligência artificial, metáforas jurídicas e o risco da ignorância técnica
29 de abril de 2025, 21h45
Nos últimos anos, o uso de inteligência artificial no Direito tornou-se pauta recorrente nos círculos jurídicos, seja em congressos, artigos, pareceres ou decisões judiciais. Com notável rapidez, conceitos como “governança algorítmica”, “transparência”, “responsabilidade civil por decisões automatizadas” e “IA responsável” foram absorvidos pelo vocabulário jurídico. No entanto, esse movimento traz consigo um problema estrutural que já presenciamos em outros momentos da história do Direito: a captura de debates técnicos por discursos genéricos, alicerçados mais na retórica do que na realidade dos fatos.

É cada vez mais comum observar juristas opinando com autoridade sobre as potencialidades e riscos da IA — sem jamais terem lido uma linha de código, sem saber como funcionam os modelos de linguagem ou como se dá o processamento técnico de dados que alimentam tais sistemas. Como consequência, conceitos fundamentais da computação são transfigurados em metáforas jurídicas que, embora confortáveis à familiaridade do discurso forense, pouco contribuem para a efetiva compreensão do objeto regulado.
As consequências já são conhecidas por quem atua no setor público ou acompanha políticas públicas digitais: insegurança jurídica, decisões mal fundamentadas, regulamentações que ignoram os aspectos operacionais dos sistemas que pretendem controlar, etc.
No campo da inteligência artificial, a situação se torna ainda mais delicada diante da crescente relevância social e econômica do tema, tanto na esfera pública quanto na privada, impulsionada por valores cada vez mais elevados investidos no desenvolvimento de soluções relacionadas e tensões políticas em torno dessas movimentações.
Nesse sentido, ao exigir “transparência” ou “explicabilidade” de modelos de IA, sem entender os trade-offs envolvidos entre interpretabilidade e desempenho, juristas podem acabar propondo obrigações impraticáveis ou irrelevantes. Da mesma forma, ao responsabilizar empresas por “falhas algorítmicas” sem compreender os limites técnicos de inferência probabilística, criam-se precedentes perigosos para a inovação e para o próprio sistema de justiça.

Neste cenário, a crítica não se dirige ao objetivo de regular IA e muito menos à interdisciplinaridade — que é essencial — mas à superficialidade com que esses temas tem sido tratados. Se o Direito deseja regular a IA de forma responsável, precisa aprender a dialogar com os fundamentos técnicos da área. Ou, ao menos, deve reconhecer sua limitação epistemológica e se aproximar de quem domina os aspectos computacionais do tema.
Verificabilidade da IA
Algumas pistas acerca de como esse debate pode ser conduzido de forma mais qualificada já estão sendo apresentadas por pesquisadores da área da ciência da computação que, pouco a pouco, estão lançando modelos de IA que buscam, por vias técnicas, superar esses desafios e criar espaços para discussões nas quais os juristas podem contribuir de forma positiva.
Um dos exemplos mais interessantes nesse sentido está no lançamento recente dos modelos franceses Pleias-RAG-350M e 1B [1], que foram desenvolvidos com foco explícito no que se imagina que serão as futuras exigências regulatórias e jurídicas. Ao contrário dos grandes modelos generalistas que dominam o mercado, esses modelos foram treinados com diretrizes claras de verificabilidade, multilinguismo e autonomia de decisão.
O mais interessante, contudo, é que tudo isso foi pensado do ponto de vista técnico: o código foi escrito para respeitar a rastreabilidade e a auditabilidade não de forma etérea, mas, sim, de forma concreta, pensadas diretamente em linguagem de programação e conectadas diretamente com dificuldades reais ligadas a implementação dessas mudanças no que tange a desempenho e gastos energéticos de modelos.
Esse tipo de abordagem nos permite entender, de fato, o que realmente é possível e alcançável (e por isso, poderia ser cobrado de quem desenvolve sistemas) do que ainda não é viável no mundo real (e, portanto, não poderia ser cobrado).
O mais interessante de tudo isso é que o desenvolvimento dessa solução é permeado por uma aura colaborativa que falta as discussões que temos no direito: O modelo está aberto [2] e pode ser consultado por qualquer pessoa via Google Colab [3], a documentação da API [4] está de fácil acesso e os autores estão conversando abertamente sobre sua solução nas redes sociais.
Sair do casulo
É nesse sentido que a crítica inicial se transforma em proposta: se o campo jurídico deseja falar sobre IA com responsabilidade, precisa ir além das palavras de ordem. Não se trata apenas de pedir “transparência”, mas de compreender como ela se implementa, desde a curadoria de dados no pré-treinamento até a forma como as respostas são estruturadas para, então, conseguir atribuir direitos e deveres justos e que dialoguem com a realidade (e não com uma percepção distorcida dela criada dentro de nossos escritórios e gabinetes).
Se queremos evitar legislações baseadas em metáforas e julgamentos guiados por slogans de marketing, a hora é agora. Precisamos parar de imaginar a IA como uma caixa-preta mágica e começar a tratá-la como o que de fato é: um artefato técnico, com pressupostos, limitações, e possibilidades que só se revelam a quem decide olhar com atenção.
Como já ressaltado em outros momentos [5]: precisamos sair do nosso casulo e dialogar com os programadores e desenvolvedores na linguagem deles (e não na nossa) para entender as reais dificuldades envolvidas na produção de modelos responsáveis. A criação de modelos de IA responsável não pode ser pensada como uma imposição do direito à ciência da computação, mas, sim, como uma empreitada interdisciplinar colaborativa
Referências
LANGLAIS, Pierre-Carl et al. Even Small Reasoners Should Quote Their Sources Introducing Pleias-RAG Model Family. Paris, abr. 2025. Disponível em: http://ragpdf.pleias.fr/. Acesso em: 24 abr. 2025.
LANGLAIS, Pierre-Carl et al. Pleias RAG in Hugging face. Disponível em: https://huggingface.co/collections/PleIAs/pleias-rag-680a0d78b058fffe4c16724d. Acesso em: 24 abr. 2025.
LANGLAIS, Pierre-Carl et al. Pleias Lightweight library for easy API integration. Disponível em: https://colab.research.google.com/drive/1oG0qq0I1fSEV35ezSah-a335bZqmo4_7?usp=sharing. Acesso em: 24 abr. 2025.
LANGLAIS, Pierre-Carl et al. Pleias RAG API documentation. Disponível em: https://github.com/Pleias/Pleias-RAG-Library. Acesso em: 24 abr. 2025.
ROCHA, Igor Moraes. Web crawlers, web scrapers e a sua importância para o Direito. Consultor Jurídico, São Paulo, 18 set. 2022. p. 1–1.
[1] LANGLAIS, Pierre-Carl et al. Even Small Reasoners Should Quote Their Sources Introducing Pleias-RAG Model Family. Paris, abr. 2025. Disponível em: http://ragpdf.pleias.fr/. Acesso em: 24 abr. 2025.
[2] LANGLAIS, Pierre-Carl et al. Pleias RAG in Hugging face. Disponível em: https://huggingface.co/collections/PleIAs/pleias-rag-680a0d78b058fffe4c16724d. Acesso em: 24 abr. 2025.
[3] LANGLAIS, Pierre-Carl et al. Pleias Lightweight library for easy API integration. Disponível em: https://colab.research.google.com/drive/1oG0qq0I1fSEV35ezSah-a335bZqmo4_7?usp=sharing. Acesso em: 24 abr. 2025.
[4] LANGLAIS, Pierre-Carl et al. Pleias RAG API documentation. Disponível em: https://github.com/Pleias/Pleias-RAG-Library. Acesso em: 24 abr. 2025.
[5] ROCHA, Igor Moraes. Web crawlers, web scrapers e a sua importância para o Direito. Consultor Jurídico, São Paulo, 18 set. 2022. p. 1–1.
Encontrou um erro? Avise nossa equipe!