Justo Processo

IA e a fundamentação das decisões: desafios e perspectivas à luz da atualização da Resolução CNJ 332/20

Autor

1 de março de 2025, 8h00

“Ninguém quer ser julgado por um robô, e ninguém será julgado por robôs neste país, a normativa proposta não permitirá isso. A inteligência artificial será em verdade uma ferramenta para auxiliar o magistrado na sua tomada de decisão. Soluções de IA poderão ajudar o juiz a formular perguntas em audiências, a detectar contradições em depoimentos, a perceber que sua decisão contraria precedente qualificado ou entendimento de seu tribunal, mas não vão subtrair do magistrado incumbido da jurisdição a ampla cognição do processo e sua possibilidade de proferir a decisão que lhe pareça mais justa em cada caso concreto” [1].

 

1. A revolução da IA

Ao longo da história, avanços tecnológicos têm sido responsáveis por redefinir paradigmas fundamentais para a humanidade, transformando a forma como nos relacionamos com o trabalho, a sociedade e o sistema de justiça [2]. Da mesma maneira que a descoberta do fogo, a invenção da roda e a eletricidade marcaram diferentes períodos da civilização, o atual desenvolvimento da inteligência artificial (IA) configura uma recente revolução tecnológica, sendo frequentemente equiparada a uma nova Revolução Industrial[3]. A introdução de novas tecnologias não apenas instaura novas formas de interação social, mas também evidencia desigualdades na distribuição do poder, promovendo o surgimento de uma “sociedade algorítmica” [4], caracterizada pela constante e acelerada mutação das dinâmicas informacionais. Esse cenário impõe uma releitura dos direitos fundamentais, especialmente no que tange às garantias individuais e à proteção contra riscos inerentes ao uso massivo de sistemas algorítmicos.

No âmbito do sistema de justiça, a IA tem sido objeto de intensos debates, sobretudo no que concerne ao impacto que pode gerar na fundamentação das decisões judiciais. A utilização de algoritmos na atividade jurisdicional suscita preocupações quanto à transparência, previsibilidade e legitimidade das decisões, exigindo reflexões aprofundadas sobre os limites e as salvaguardas necessárias para compatibilizar a inovação tecnológica com os princípios estruturantes do ordenamento jurídico.

2. A IA na fundamentação das decisões

O dever de fundamentação das decisões judiciais é um princípio fundamental do Estado Democrático de Direito, consolidando-se como um pilar essencial para a legitimidade e controle da atividade jurisdicional. No Brasil, essa obrigação está expressamente prevista no artigo 93, inciso IX, da Constituição, que estabelece que “todos os julgamentos dos órgãos do Poder Judiciário serão públicos, e fundamentadas todas as decisões”.

A fundamentação das decisões judiciais não apenas garante a transparência e a imparcialidade, mas também viabiliza o controle jurisdicional e o pleno exercício do contraditório e da ampla defesa, reforçando a previsibilidade e a segurança jurídica, tornando-se uma verdadeira accountability no trabalho judicial [5]. Assim, a fundamentação das decisões judiciais deve ser entendida como um imperativo do sistema constitucional, assegurando a legitimidade do exercício do poder jurisdicional e fortalecendo a confiança no Poder Judiciário e nos valores democráticos.

A evolução das tecnologias digitais tem impactado profundamente a administração da Justiça, especialmente com o desenvolvimento de sistemas baseados em IA. Com a utilização de novas tecnologias, busca-se solucionar os gargalos processuais e diminuir a cifra dos mais 80 milhões de processos em trâmite na justiça brasileira.

Na trilha de uma maior eficiência decisória, o mundo caminha para a introdução de sistemas de Online Dispute Resolution (ODR) numa forma multiportas de resolução dos casos antes mesmo que ingressem no Poder Judiciário [6]. Nos Estados Unidos, a startup de tecnologia jurídica, Fortuna Arbitration, anunciou o lançamento do Arbitrus.ai, uma plataforma de arbitragem automatizada por inteligência artificial, prevista para estrear em fevereiro de 2025. O objetivo do Arbitrus.ai é oferecer serviços de arbitragem a um custo significativamente menor—cerca de um décimo do valor da arbitragem tradicional—e com maior previsibilidade e consistência nos resultados [7].

No Brasil, dentre os vários modelos já existentes, destaco o recente (16/12/2024) lançamento pelo STF da “MARIA” – Módulo de Apoio para Redação com Inteligência Artificial. Trata-se de uma ferramenta de IA generativa destinada a otimizar a produção de conteúdo no próprio tribunal. E, em fevereiro de 2025, o CNJ atualizou a Resolução nº 332/2020 e aprovou um conjunto de normas que irão regulamentar a utilização de IA em todo o Poder Judiciário. O objetivo do ato normativo é “estabelecer diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário”, constituindo um importante marco normativo para harmonizar a inovação tecnológica com princípios constitucionais, observando-se rigorosos padrões de segurança, ética, explicabilidade e transparência. O texto final foi assinado e divulgado eletronicamente em data de 26/2/2025 e esclarece que a “proposta normatiza o uso de inteligência artificial no Judiciário de forma segura e ética, assegurando a transparência e a rastreabilidade das decisões automatizadas”.

Spacca

A resolução do CNJ elenca fundamentos essenciais para a governança e utilização de soluções de IA pelos órgãos judiciários, sintetizados principalmente no artigo 2º. Entre eles, destacam-se: respeito aos direitos fundamentais e valores democráticos; promoção do bem-estar dos jurisdicionados; centralidade da pessoa humana, com a participação e a supervisão humana em todas as etapas do ciclo de desenvolvimento e de utilização; promoção da igualdade, da pluralidade e da justiça decisória; garantia da segurança da informação e da segurança cibernética; e a transparência dos relatórios de autoria, de avaliação de impacto algorítmico e monitoramento.

O artigo 3º enuncia uma série de princípios quanto ao desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IAs. Desse conjunto, merecem destaque: a justiça, a equidade, a inclusão e a não-discriminação abusiva ou ilícita (artigo 3º, I); a transparência, a eficiência, a explicabilidade, a contestabilidade, a auditabilidade e a confiabilidade das soluções que adotam técnicas de inteligência artificial (artigo 3º, II); a segurança jurídica e a segurança da informação (artigo 3º, III); a busca da eficiência e qualidade na entrega da prestação jurisdicional pelo Poder Judiciário, garantindo sempre a observância dos direitos fundamentais (artigo 3º, IV); o devido processo legal, a ampla defesa e o contraditório, a identidade física do juiz e a razoável duração do processo, com observância das prerrogativas e dos direitos dos atores do sistema de Justiça (artigo 3º, V); e o devido processo legal, a ampla defesa e o contraditório, a identidade física do juiz e a razoável duração do processo, com observância das prerrogativas e dos direitos dos atores do sistema de Justiça (artigo 3º, VII). Esses princípios se harmonizam com as disposições relativas à governança, definindo que todo ciclo de vida do desenvolvimento e uso da IA — desde a concepção, treinamento e implantação até eventuais evoluções e auditorias — seja acompanhado de mecanismos de controle e transparência (artigos 2º, 3º, 12 e 13).

A resolução dedica capítulo próprio à compatibilidade do uso de IA com os direitos fundamentais, exigindo que a verificação ocorra em todas as fases do ciclo de vida da solução (artigo 5º), com a adoção de aplicações que garantam a segurança jurídica e que colaborem para que o Poder Judiciário respeite os princípios previstos no referido artigo 3º da resolução.

A utilização da IA tem-se mostrado em diversos segmentos uma atividade de risco [8]. Ciente dessa preocupação e seguindo modelos já implementados na Europa, a resolução consagra uma classificação de riscos “ajustadas à criticidade de cada aplicação” [9] e reconhece que a obrigação de fundamentar as decisões afeta sobretudo os chamados sistemas de “alto risco” e assim devem ser submetidas a processos regulares de auditoria e monitoramento contínuo para “supervisionar seu uso e mitigar potenciais riscos aos direitos fundamentais, à privacidade e à justiça” (artigo 11 § 1º):

“Consideram-se de alto risco as seguintes finalidades e contextos para o desenvolvimento de soluções baseadas em inteligência artificial destinadas a desempenhar ou apoiar o usuário na realização das seguintes atividades acessórias: (…). AR2 – aferição da adequação dos meios de prova e a sua valoração nos processos de jurisdição contenciosa, sejam documentais, testemunhais, periciais ou de outras naturezas, especialmente quando tais avaliações possam influenciar diretamente a decisão judicial; AR3 – averiguação, valoração, tipificação e a interpretação de fatos como sendo crimes, contravenções penais ou atos infracionais, ressalvadas as soluções voltadas à mera rotina da execução penal e de medidas socioeducativas; AR4 – formulação de juízos conclusivos sobre a aplicação da norma jurídica ou precedentes a um conjunto determinado de fatos concretos, inclusive para a quantificação ou a qualificação de danos suportados por pessoas ou grupos, em ações criminais ou não;”

Nesses casos, “a possibilidade de ocorrência de vieses discriminatórios ou de erros na interpretação dos dados é maior, exigindo medidas de segurança e auditoria mais rigorosas, que estão propostas no texto, como a necessária avaliação de impacto algorítmico” [10].

Os produtos gerados a partir da IA e direcionados para dar suporte às decisões judiciais deverão preservar “a igualdade, a não-discriminação abusiva ou ilícita e a pluralidade, assegurando que os sistemas de IA auxiliem no julgamento justo e contribuam para eliminar ou minimizar a marginalização do ser humano e os erros de julgamento decorrentes de preconceitos” (artigo 8º).

No que diz respeito ao dever de fundamentar as decisões judiciais, a resolução consagra a “autonomia dos usuários internos” (artigo 32) como elemento fundamental, exigindo que todos os sistemas possibilitem “a revisão detalhada do conteúdo gerado e dos dados utilizados para sua elaboração, assegurando que os usuários tenham acesso às premissas e ao método empregado pela inteligência artificial na sua formulação, sem que haja qualquer espécie de vinculação à solução apresentada pela inteligência artificial e garantindo-se a possibilidade de correções e ajustes” (artigo 32, II).

Em resumo: “Em nenhum momento o sistema de IA poderá restringir ou substituir a autoridade final dos usuários internos” (artigo 32, parágrafo único) e a proposta de solução ofertada pela IA “sempre será submetida à análise e decisão final de uma autoridade competente, que exercerá a supervisão humana sobre o caso” (artigo 33, § 1º). Assim, todo sistema computacional a ser utilizado no âmbito do Poder Judiciário apenas poderá operar se garantir: (1) a supervisão humana; e (2) permitir a modificação do produto gerado pelo magistrado competente. É, aliás, o que se extrai da exposição de motivos do ato normativo:

“A norma enfatiza que os sistemas de IA devem funcionar como ferramentas de apoio à decisão, contribuindo para a melhoria da eficiência e da qualidade da prestação jurisdicional, sem, contudo, subverter o papel central do operador humano ou, ainda, estimular uma indesejável dependência dos algoritmos no processo de tomada de decisões. As regras propostas empoderam os juízes, garantindo que a tecnologia seja aliada, nunca substituta da decisão humana[11].

A norma promete que ninguém será “julgado por um robô”. O uso da IA foi estruturado para se tornar uma ferramenta para auxiliar o magistrado na tomada de decisão, contribuindo na formulação de perguntas em audiências, na detecção de contradições nos depoimentos, na identificação de precedentes qualificados, mas que não irá “subtrair do magistrado incumbido da jurisdição a ampla cognição do processo e sua possibilidade de proferir a decisão que lhe pareça mais justa em cada caso concreto” [12].

A supervisão humana é, de fato, elemento essencial e estruturante para a utilização da IA nos processos judiciais, de maneira a evitar a automatização das decisões e a implementação de uma forma de “positivismo tecnológico” [13] que fomente uma hiperintegração [14] de casos que guardem dessemelhanças evidentes.

3. Conclusão

A ascensão da IA no Judiciário representa um dos mais relevantes desafios contemporâneos para a teoria e a prática do direito. Se, por um lado, os avanços tecnológicos trazem promessas de eficiência, celeridade, uniformidade e segurança na prestação jurisdicional, por outro, impõem questionamentos éticos e legais fundamentais acerca da fundamentação das decisões judiciais, da autonomia dos magistrados e do devido processo legal. A fundamentação das decisões judiciais é um dos pilares do Estado Democrático de Direito, garantindo a transparência, a previsibilidade e a possibilidade de controle das decisões pelo jurisdicionado e pela sociedade. Dessa maneira, a introdução de ferramentas baseadas em IA no auxílio à atividade jurisdicional não pode comprometer esse princípio basilar, sob pena de transformar o processo decisório em um mecanismo opaco, automatizado e desprovido de legitimidade.

A resolução do CNJ sobre o emprego de IA no Poder Judiciário inaugura um regime normativo que busca equilibrar o potencial transformador das novas tecnologias com a preservação dos direitos fundamentais e das garantias processuais. Ao prever fundamentos, princípios e requisitos específicos de governança e monitoramento, o diploma exige que toda e qualquer solução de IA seja implementada de modo transparente, com participação humana efetiva, sem dispensar a devida fundamentação na atividade jurisdicional.

 


[1] CNJ, Ato Normativo – 563-47.2025.2.00.0000, Rel. Cons. Luiz Fernando Bandeira de Mello, p. 26/02/25.

[2] MONTEIRO, J. Lunes; MARRAFON, M. Aurélio. Legitimidade democrática na Governança Algorítmica... Rev Direitos Fundamentais & Democracia v. 29, n. I, p. 5-50, jan/abr, 2024, p. 6.

[3] SUSSKIND, Jamie. Future Politics: living together in a world transformed by tech. Oxford: Oxf. U. Press, 2018, p. 4.

[4] BALKIN, Jack M. As três leis da robótica na era do Big Data. Rev. Direitos Fundamentais & Democracia, vol. 29, n. 2, p. 250-285, maio/ago 2024.

[5] NUNES, Dierle; DELFINO, Lúcio. Do dever de análise de todos os argumentos (teses)…. In. Marx Neto, Edgard Audomar. Proc.Civil Contemporâneo-Homenagem 80 anos do Prof. Humberto Theodoro Jr – 2018, p. 64. Forense.

[6] NUNES, Dierle; PAOLINELLI, Camilla. Acesso à justiça e virada tecnológica no sistema de justiça brasileiro…. In. Direito Processual e tecnologia. 2ª. ed., SP: JusPodivm, 2024, p. 17.

[7] AMBROGI, Bob. Legal Tech Startup To Launch AI-Powered Arbitration Service, Promising Reduced Costs and Consistent Outcomes. In. LawSites, pub. 29/01/25.

[8] PINHEIRO, G. P.. A regulação pela ética e a proposta de marco legal para a inteligência artificial no Brasil. Rev. Direitos Fundamentais & Democracia, vol. 29, n. 2, p. 124-147, maio/agosto, 2024.

[9] CNJ, A.N – 563-47.2025.2, Rel. Cons. Bandeira de Mello, p. 26/02/25.

[10] Id.

[11] Id.

[12] Id.

[13] PINTO, Henrique Alves. A tripla fundamentação das decisões jurisdicionais pautadas em inteligência artificial… SP: JusPodivm, 2024, p. 297.

[14] Ibid., p. 303.

Autores

  • é juiz auxiliar da presidência do CNJ, mestre e doutorando em Direitos Fundamentais e Democracia (UniBrasil) e professor de Processo Penal (UTP, Emap, Ejud-PR).

Encontrou um erro? Avise nossa equipe!