Opinião

Maria, a escriba que apoiará as decisões judiciais

Autor

  • é jornalista analista e consultor político mestre em Políticas Públicas e Governo pela FGV ex-diretor de documentação do Diap autor dos livros Por Dentro do Governo: como Funciona a Máquina Pública e RIG em Três Dimensões: Trabalho Parlamentar Defesa de Interesse perante os Poderes Públicos e Análise Política e de Conjuntura e sócio-diretor das empresas Consillium Soluções Institucionais e Governamentais e Diálogo Institucional Assessoria e Análise de Políticas Públicas.

    Ver todos os posts

19 de junho de 2025, 13h25

A adoção de ferramentas de inteligência artificial (IA) pelo Poder Judiciário brasileiro, como o sistema Maria (Módulo de Apoio para Redação com Inteligência Artificial), do Supremo Tribunal Federal [1], e o STJ Logos, do Superior Tribunal de Justiça, representa um avanço na modernização da Justiça, prometendo maior eficiência, redução de custos e agilidade processual ao automatizar tarefas repetitivas, como a elaboração de relatórios, resumos de votos e análise preliminar de processos. No entanto, essa crescente dependência de sistemas automatizados traz consigo um risco grave: a descontextualização das decisões judiciais, que pode comprometer a qualidade e a legitimidade do Judiciário, caso não haja transparência e acompanhamento e diálogo constante entre advogados e magistrados.

Fellipe Sampaio/STF
maria inteligência artificial supremo stf

De acordo com os presidentes do STF e do STJ, a principal justificativa para a implementação da inteligência artificial no Judiciário é a racionalização de tarefas burocráticas, liberando servidores e magistrados para atividades mais complexas. Contudo, há uma falsa impressão de que os algoritmos são neutros e objetivos. Na realidade, esses sistemas operam com base em dados e padrões pré-definidos, o que pode levar a decisões padronizadas sem a devida consideração das nuances de cada caso, fato que exigirá cuidado redobrado de quem vai analisar e decidir sobre o que foi apresentado pela inteligência artificial.

Um exemplo preocupante é a análise automatizada de petições iniciais e recursos. Se um sistema identifica jurisprudências sem compreender o contexto fático específico, corre-se o risco de reproduzir decisões passadas de forma acrítica, ignorando particularidades que poderiam alterar o resultado. Assim, se os advogados não estiverem atentos e em contato com os magistrados, que tem a responsabilidade de fazer o julgamento, as máquinas vão decidir suas causas. Isso significa que a falta de intervenção humana qualificada pode transformar a Justiça em um processo meramente técnico, esvaziado de seu caráter interpretativo.

A descontextualização ocorre quando a inteligência artificial simplifica excessivamente os fatos, omitindo detalhes relevantes ou enquadrando casos complexos em modelos padronizados. Por exemplo, um sistema que resume automaticamente um recurso pode priorizar informações que se encaixam em padrões prévios, negligenciando argumentos sutis, mas decisivos, apresentados pelas partes. Essa dinâmica pode levar a injustiças sistêmicas, especialmente em áreas onde o direito deve ser aplicado com flexibilidade, como no Direito de Família ou no Direito do Trabalho. Para evitar isto, a transparência no funcionamento desses sistemas e o cuidado individual do magistrado em cada caso é fundamental, pois a celeridade não pode ser priorizada em detrimento da qualidade da justiça.

Ferramenta exige monitoramento

Assim, embora o STF e o STJ afirmem que suas ferramentas são supervisionadas por servidores, é crucial se ter certeza de que cada magistrado revisará minuciosamente cada decisão gerada por inteligência artificial. Em um cenário de excesso de processos, a tentação de confiar cegamente nos algoritmos pode prevalecer, especialmente quando prazos apertados pressionam os julgadores.

É fato que a inteligência artificial pode ser uma aliada do Judiciário, mas não pode substituir o julgamento humano. Para evitar a descontextualização, é essencial que os advogados monitorem ativamente o uso dessas ferramentas, exigindo transparência e revisão humana, para que os magistrados mantenham controle crítico sobre as sugestões automatizadas, assegurando que decisões sejam fundamentadas em análise contextual, e que haja regulamentação clara sobre os limites da inteligência artificial, impedindo que sistemas autônomos tomem decisões sem supervisão. Caso contrário, corremos o risco de transformar a Justiça em um processo mecânico, em que a eficiência se sobrepõe à equidade. Em hipótese alguma, podemos permitir que as máquinas decidam causas sem a devida compreensão da realidade humana. A tecnologia deve servir à Justiça, não o contrário, e seu uso deve ser sempre acompanhado de reflexão crítica e responsabilidade por parte de todos os atores do sistema judiciário.

 


[1] A divulgação do início de funcionamento desse sistema no STF foi feito pelo presidente da corte, Luís Roberto Barroso, na sede do Supremo, em 11 de junho, por ocasião do lançamento do “Anuário da Justiça do Brasil 2025”

Autores

  • é jornalista, analista e consultor político, mestre em Políticas Públicas e Governo pela FGV, sócio-diretor da empresa “Consillium Soluções Institucionais e Governamentais”, ex-diretor de Documentação do Diap e membro da Câmara Técnica de Transformação do Estado, do Ministério da Gestão e da Inovação em Serviços Públicos, e do Conselho de Desenvolvimento Econômico e Social Sustentável da Presidência da República – o Conselhão.

Encontrou um erro? Avise nossa equipe!