O(a) robô Maria, precedentes e o direito a um julgamento humano
13 de fevereiro de 2025, 8h00
1. Um pouco do cenário que nos envolve
(i) Advogado em São Paulo ingressa com pedido de nulidade de sentença que desconfiou ter sido “elaborada” por robô;
(ii) TJ-SC rejeita um pedido de Habeas Corpus que, “fabricado” por robô, citou jurisprudência inexistente; tribunal disse que os precedentes falsos tentaram induzir o julgador em erro;
(iii) Há alguns meses, outro episódio de fabricação de precedentes em tribunal;
(iv) Descoberta de que big techs baixaram quase 100 terabytes para treinar inteligência artificial – que depois dará respostas plagiadas;
(v) Matéria do UOL mostra que artigos falsos contaminam a literatura científica – há uma fábrica de artigos elaborados por inteligência artificial.
O que não está dito? É que todo esse admirável mundo novo, cantado em prosa e versos por tribunais e advogados e por advogados nas redes sociais, está restrito à busca de “precedentes” e falhas que os advogados cometem na elaboração de recursos (o robô atua como um atirador de elite, derrubando recursos). E a doutrina? Fica de fora. Já não importa. Robô não cita fonte (é um plagiador) e nem se importa com literatura jurídica.
2. O nascimento de Maria
No dia 16/12/2024, o ministro Luís Roberto Barroso, presidente do Supremo Tribunal Federal, anunciou o Módulo de Apoio para Redação com Inteligência Artificial (M.A.R.I.A), o primeiro programa de inteligência artificial generativa do tribunal, inspirado em um sistema chamado Galileu, já implementado pelo TRT-4, no Rio Grande do Sul.
Apesar de inspirado no robô desenvolvido na corte trabalhista gaúcha, MARIA é um sistema de IA produzido integralmente pela Suprema Corte, em parceria entre servidores e uma empresa contratada via chamamento público.
O ministro Barroso anunciou que, de início — e atenção a este ponto — MARIA irá auxiliar as atividades da corte, tornando-as mais rápidas e produtivas, “uma vez que a automatização de tarefas repetitivas – como a elaboração de resumos e relatórios – libera os servidores para se dedicarem a atividades mais complexas”.
3. O Supremo Tribunal e o desejo por mais inteligência artificial
A iniciativa segue outras similares, como o Projeto Victor, também do STF, e outros. Este último, diferentemente da MARIA, atua mais especificamente na chamada decisão judicial assistida, em que o robô auxilia na separação dos documentos principais dos processos que chegam à corte superior e classifica os recursos por Tema de Repercussão Geral. Observação: o STJ anunciou o STJ Logos, robô com inteligência generativa.

No Projeto Victor há uma série de críticas a serem feitas, e sobre as quais já me debrucei em textos anteriores (ver aqui e aqui), mas, no limite, as críticas que farei à MARIA no texto correspondem à questão de fundo que também fiz nos demais trabalhos que escrevi sobre o tema: a questão do suposto “sistema de precedentes” que permeia ambas as atividades. No caso do Victor, ele intensifica o próprio sistema de precedentes, o que na minha visão é um erro, pois o próprio viés [1] do que significa um precedente, segundo o sistema vigente no país, como já expliquei amiúde em tantos textos [2], é ele próprio equivocado. Além do equívoco na concepção de precedente (que no Brasil é feito para o futuro), existe outro problema: a de se pensar que precedente são aferidos pela similaridade fática (vê-se isso em decisões que não conhecem ou rejeitam REsp sob argumentos como “haja vista a ausência de similitude fática”), o que faz com que se perca a essência do sentido do conceito de precedente (ver aqui texto explicativo).
Esses novos sistemas de IA e seu funcionamento vão ao encontro do que já foi anteriormente dito pelo ministro Barroso sobre como precedentes e inteligência artificial são as únicas alternativas à jurisdição no Brasil (ver aqui e minha crítica aqui). Portanto, esse tem sido uma das marcas de sua gestão à frente do Supremo.
Já sobre esse novo sistema de IA apresentado, MARIA, entre os serviços já aptos a serem utilizados, estão:
Resumos de votos: a MARIA pode gerar automaticamente minutas de ementas, com o resumo do entendimento do ministro sobre a matéria em questão. Como ressaltou o presidente do STF, “essa funcionalidade foi desenvolvida internamente pelas equipes do Supremo, que garantiram a integração ao sistema eletrônico STF-Digital, com a possibilidade de revisões e edições diretas”;
Relatórios em processos recursais: a ferramenta pode resumir relatórios de ministros em Recursos Extraordinários (REs) e em Recursos Extraordinários com Agravo (AREs). “Nos processos das classes de recurso extraordinário e recurso extraordinário com agravo, a MARIA automatiza a elaboração de relatórios processuais essenciais para as decisões judiciais”; e
Análise inicial de processos de reclamação: a MARIA realiza a análise da petição inicial e apresenta respostas aos questionamentos que orientam o estudo inicial desse tipo de processo.
Essa última funcionalidade é a que foi inspirada no sistema Galileu do TRT-4 e, nas palavras do ministro, “no futuro será ampliada para incluir a geração de relatórios e a identificação automática de precedentes relacionados”.
Sobre os dois primeiros serviços, confesso que eu não teria qualquer objeção, a princípio. Estudos em ética sobre o tema da inteligência artificial sempre nos alertam que atividades repetitivas, que demandam mais tempo — e que não lidam estritamente e no mérito com direitos humanos — não envolvem o mesmo risco e não devem ser o foco de preocupação que a sociedade deve ter com a IA. Mas mesmo nessas há um dever ético da imposição de limites. Por exemplo: quem confere se o robô fez o relatório fidedigno?
Os chamados “assistentes virtuais especializados” até podem, como afirmaram Morais da Rosa e Aury Lopes Jr. em texto sobre ferramenta parecida a ser usada por advogados (ver aqui), “enriquecer a experiência humana”. Mas, pergunto, quais são os limites para isso?
Em que medida tais modelos assistenciais não reforçam vieses e equívocos do criador? No limite: quando nós, advogados, usamos IA para pesquisar jurisprudência que se adeque ao entendimento de determinado ministro já não sucumbimos ao realismo jurídico?
Em outras palavras, o que facilita a nossa vida agora não pode influenciar na própria concepção de um precedente como tal no médio e longo prazo?
São perguntas como essa que fazem especialistas em ética na IA questionarem: “quais são as atividades feitas pela inteligência artificial que deveriam ou não ser mantidas no poder de humanos?”
4. Pode a inteligência artificial substituir todos os atos jurisdicionais?
Essa é a questão que nos assombra e que devemos debater quando implementamos a IA em nossas vidas e consequentemente em serviços públicos. Lembremos que a jurisdição é um serviço público. Por isso me preocupa em especial o terceiro serviço oferecido por MARIA. A “análise inicial”, segundo o próprio presidente do STF, será ampliada para identificação automática de precedentes.
Identificação automática?
Este, a meu ver, é o ponto fulcral que estará em debate nos próximos anos: como MARIA identifica a holding de um precedente? Ou precedentes são identificados pela mera similitude, como falei anteriormente? E quais vieses serão adotados pelo robô ao realizar essa identificação?
Nos textos que já publiquei sobre o tema, insisto que a questão sobre o uso de inteligência artificial pelo Judiciário — e no Direito em geral — deve ser vista como uma questão de paradigma. É necessário, portanto, um olhar hermenêutico para com o tema. Isso não quer dizer inutilizar o uso da IA, ou deixar de incorporá-lo, mas sim usá-lo eticamente, buscando uma alternativa a este imaginário técnico-jurídico que se apresenta de maneira tão forte no país [3].
Porque sim. Toda essa tendência tecnicista se baseia em um paradigma filosófico de prevalência da economia do comportamento, da melhora na eficiência e consistência das decisões pela IA. Este é um tema que normalmente vem em contraposição aos conceitos de ética e de boa vida, como se fossem apartados. Como se a ética estivesse no meio, impedindo o progresso, representado pela IA.
É da negação dessa falsa premissa que se sustenta a tese de John Tasioulas. O que o jurista defende é que precisamos pensar uma ética — o autor defende uma versão aristotélica da ética — adequada à IA. Isto é, a ética precisa estar adaptada aos tempos da IA e nisto se inclui o reconhecimento da regulamentação.
5. Algumas considerações sobre a ética no uso da inteligência artificial
Tasioulas, que proferiu em maio do ano passado a conferência Artificial Intelligence, Ethics, and the Right to a Human Decision (ver a palestra aqui), defende que, especialmente nos casos do serviço jurisdicional, a IA merece ser regulamentada antes de utilizada indiscriminadamente por tribunais. Tal regulamentação se dá, justamente porque o autor defende que certas atividades devem ser realizadas por humanos. E isso é uma proposição prescritiva. Moral, pois. A ética é quem diz quais devem ser tais atividades. E nossa moral compartilhada, incorporada pela coerção do direito, que nos assegura quais serão tais atividades.
Há, portanto, para o autor, e compartilho deste entendimento, um direito a uma decisão humana em determinados casos [4]. Tal direito já foi positivado em alguns sistemas jurídicos. O primeiro foi na Lei de Internet e Proteção de Dados da União Europeia, que assegura aos cidadãos europeus o direito de não serem submetidos a processos decisórios que sejam unicamente automatizados. No Brasil, nada disso parece ter espaço.
Cita Tasioulas também um projeto de lei apresentado pelo governo dos Estados Unidos que propõe uma Bill of Rights para a IA, que inclui o direito de cidadãos de escolherem não ser submetidos a processos decisórios por serviços automatizados.
Como se vê, a questão sobre a IA é puramente ética. Envolve a moralidade pública. E é sobre este ponto que reside o problema dos precedentes. Como se sabe, os precedentes surgem do common law, uma prática eminentemente humana. Indiscutivelmente mais humana até que o civil law, inclusive, pois lida com decisões judiciais de casos passados, construídas racional e coletivamente, que formam uma holding decisória. Por isso os precedentes cuidam do passado. Ao contrário do Brasil, em que se faz precedente como lei geral e abstrata.
6. É preciso pensar em um direito fundamental a um julgamento humano
Isso quer dizer que o processo importa tanto quando o resultado. A fundamentação importa tanto quanto o conteúdo e o que se ganha com a decisão. E isso, também para Tasioulas, é o calcanhar de Aquiles dos processos decisórios por IA. A racionalidade humana, como atestou o filósofo John Searle ao confrontar o teste de Turing [5], em sua intersubjetividade, não pode ser replicada por uma máquina.
Um robô pode, sim, “errar menos que um humano”, ou até ser mais consistente e menos subjetivista que um humano, mas é incapaz de replicar sentimentos humanos, como a piedade. E um robô não tem a capacidade de identificar o argumento de princípio que liga um precedente a outro.
Alguns podem argumentar que piedade, a clemência (lembremos que o STJ e o STF julgam casos criminais, isto é, casos penais estarão futuramente sujeitos a julgamentos ou “assistências” de sistemas automatizados) e outros temas sensíveis aos humanos dão ao juiz-ser-humano um poder desmedido, e todas as minhas críticas ao solipsismo poderiam ser corrigidas por decisões de um juiz-robô mais consistente.
Até certo nível, esse é um argumento que pode até ter fundamento, mas quando os vieses decisórios do juiz-robô são definidos com um conceito de precedentes equivocado, de modo a barrar processos de serem julgados pela corte, o alerta de Tasioulas se mostra mais eloquente ainda: IAs até podem ser programadas para serem mais “sensíveis” aos direitos fundamentais dos jurisdicionados, mas não poderiam compartilhar de sentimentos como a empatia, peculiar aos seres humanos. E não esqueçamos que há dois protocolos do CNJ institucionalizando julgamentos sob perspectiva (de gênero e raça).
Da mesma maneira, a construção de um precedente é (deveria ser) uma obra humana e coletiva, construída a partir de julgamentos de múltiplas pessoas e aplicado por outras posteriormente. O risco, a partir da lição de Tasioulas, é que essa construção contínua seja barrada no futuro por sistemas como o MARIA.
Ou seja, o que era para ser um auxílio aos juízes acaba por se transformar ele próprio no decisor principal. Os juízes-humanos, a reboque e sobrecarregados de mais e mais processos, aceitariam mansamente as decisões dos juízes-robôs, fundamentados no falso (ou enviesado) sistema de precedentes. O discurso está posto: se não concordar com a decisão do robô, não há saída, pois está fundamentado em repercussão geral.
Pobres dos jurisdicionados que discordarem.
7. Qual tipo de justiça?
Numa última palavra: Tasioulas afirma que um dos argumentos centrais a favor do uso jurisdicional da IA é que aumentaria o acesso à justiça, dado o número impraticável de processos que tramitam em tribunais da Índia e Brasil, por exemplo. Tal argumento precisa ser contraposto com o seguinte: qual tipo de acesso à justiça está sendo colocado como alternativa com a IA?
O risco é de criarmos um acesso à justiça sustentado pela eficiência, mas que ignore o devido processo substantivo. Nada muito distante da realidade de agora, mas acentuando-a. Uma produtividade jurisdicional como essa, “para inglês ver”, onde os jurisdicionados seguem sem uma prestação qualificada – em um país de decisões massificadas e advocacia fragilizada e proletarizada, com concursos públicos inseridos nesse modelo de Direito prêt-à-porter com perguntas do tipo quiz show e ensino jurídico tomado por literatura estandardizada.
Precisamos, portanto, falar urgentemente no Brasil de um direito — quiçá fundamental, já que o devido processo também o é — do cidadão ter sua demanda decidida por um humano. Um direito fundamental a uma jurisdição humana, com critérios e com obediência aos pressupostos processuais constantes nos dispositivos como artigo 93, IX, da CF, 926, do CPC e artigos 489, do CPC e 315, do CPP.
Qual tipo de justiça? Qual tipo de sociedade? Qual tipo de academia? Uma justiça cercada por algoritmos e petições eivadas de invenções feitas por robôs malandros e manejados por advogados ligeirinhos? Queremos uma sociedade em que não há mais fatos, apenas narrativas? Uma academia em que até artigos científicos são falsificados, assim como precedentes são criados para enganar?
Você escolhe. Ou até isso você deixará para o robô?
[1] Sobre os vieses na utilização do Projeto Victor pelo STF, ver VALLE, Vivian Lima López; FUENTES i GASÓ, Josep Ramón; AJUS, Attílio Martins. Decisão judicial assistida por inteligência artificial e o Sistema Victor do Supremo Tribunal Federal. Revista de Investigações Constitucionais, Curitiba, v. 10, n. 2, e252, maio/ago. 2023.
[2] Por todos, ver meu Precedentes Judiciais e Hermenêutica (6.ed., JusPodivm, 2025).
[3] STRECK, Lenio Luiz.; JUNG, Luã Nogueira. Hermenêutica e Inteligência Artificial: Por uma Alternativa Paradigmática ao Imaginário Técnico-Jurídico. Revista Direito Público, [S. l.], v. 21, n. 110, p. 239-257, abr./jun. 2024.
[4] Aqui recomendo o livro Direito Fundamental à Decisão Humana, de Amanda Antonelo, Tirant Lo Branch, no qual fiz a apresentação.
[5] Ibid., p. 249.
Encontrou um erro? Avise nossa equipe!