Fórum de Lisboa

Inteligência artificial no Judiciário é boa, mas demanda vigilância humana ativa

Autor

18 de julho de 2023, 18h52

O uso da inteligência artificial em análises jurídicas é positivo, mas sua aplicação demanda uma vigilância humana ativa, de acordo com os especialistas no assunto que dele trataram no XI Fórum Jurídico de Lisboa, no fim de junho. A mesa "Inteligência artificial e (in)Justiça: como lidar com o potencial discriminatório de decisões automatizadas" foi mediada pelo advogado e professor Sérgio Antonio Ferreira Victor.

Reprodução
CEO da Arko Advice, empresa de análise política, Murillo de Aragão disse que a utilização da IA em decisões judiciais é algo inevitável.

"Considerando a possibilidade de que a inteligência artificial vai ser utilizada em decisões, o que, na minha opinião, já é uma realidade, porque advogados e juízes usam instrumentos do tipo para consultar e ampliar seus escopos de pesquisa, o fato é que é inevitável o uso dessas ferramentas", disse ele. "É impossível haver uma sociedade democrática, como pretendemos ser no Brasil e em Portugal, se simplesmente proibirmos o uso do ChatGPT, porque ele vai ser usado, assim como outros instrumentos semelhantes."

Aragão falou sobre o Projeto de Lei 2.338/2023, apresentado pelo presidente do Senado Federal, Rodrigo Pacheco (PSD-MG). O texto prevê a regulamentação da inteligência artificial no Brasil.

"O artigo 10 diz que, quando a decisão, previsão ou recomendação de sistema de IA produzir efeitos jurídicos relevantes e que impactem de maneira significativa os interesses da pessoa, ela poderá solicitar a intervenção ou a revisão humana. No final das contas, voltamos ao ser humano como fator decisivo para que essa ferramenta atue da melhor forma em favor de uma Justiça melhor."

Secretário-geral da Mesa do Senado, Gustavo Sabóia lembrou que são quatro os projetos de lei que regulamentam a inteligência artificial tramitando atualmente no Congresso Nacional. Segundo ele, o primeiro desafio do Brasil é comprovar a necessidade de regulamentar o uso da ferramenta.

Sabóia destacou também que discriminações algorítmicas geram consequências reais. "Há uma espécie de vácuo jurídico na aferição de dolo ou culpa. Esse vácuo acontece justamente porque nós estamos falando especificamente da inteligência artificial. Não há como atribuir dolo ou culpa à IA. Algum humano vai ter de ser o responsável por esse ato de discriminação e a questão vai ser de fato saber se essa discriminação foi inconsciente."

Segundo ele, três dos quatro projetos de lei que tratam da regulamentação da IA seguem uma linha mais biológica, apenas dizendo em linhas gerais que não pode haver discriminação e que existirá autorregulação das empresas. Já o PL 2.338/2023 define o que é essa discriminação, seja ela indireta ou direta.

"Ele cria o conceito de pessoas afetadas pela inteligência artificial e estabelece que há relação jurídica entre usuário e algoritmo, e não como a de um consumidor ou a decorrente de um evento de dano."

Professora do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e autora do livro Inteligência Artificial do Direito: Limites Éticos, Tainá Aguiar Junquilho afirmou que um dos principais problemas quanto à discriminação da IA surge na sub-representação ou na sobrerrepresentação de dados. Além disso, ela destacou a necessidade de diversidade (racial, de gênero e social) nos times de desenvolvedores de inteligência artificial.

"É preciso pluralizar equipes. A gente forma uma base adequada de dados o tempo inteiro. Dando transparência a esses modelos, a gente traz a explicabilidade na medida do possível, respeita a não discriminação, os resultados não discriminatórios, preza pela equidade, traça governança e faz análises constantes de impacto."

Projeto
Procurador-geral do Distrito Federal, Flávio Jardim falou sobre o Projeto Osíris, em curso na PG-DF, que usa a inteligência artificial em execuções fiscais. De acordo com ele, o tempo médio destinado à análise de casos do tipo caiu desde o início da aplicação do projeto.

"Como vieses discriminatórios podem entrar aqui? Nesse projeto, o que nós informaremos para a máquina, para o computador, é basicamente o que está na dívida ativa. Não vamos informar raça, gênero, nem sequer a situação econômica da pessoa. Na verdade, o Osíris tem pouca informação sabe a Consulta da Dívida Ativa."

Já a investigadora do WhatNext.Law/FutureHealth e professora auxiliar da Universidade Nova de Lisboa Vera Lucia Raposo defendeu uma maior transparência sobre quem e o que controla a inteligência artificial.

"O controle humano muitas vezes não é divulgado porque não existe transparência. Saber, por exemplo, a taxa de precisão, qualidade e exatidão da IA também é uma coisa que tem a ver com a transparência. Muitas vezes, nenhuma dessas informações é divulgada. E não é por questões técnicas. É óbvio que as pessoas têm essas informações e podem divulgá-las."

O diretor da Escola de Lisboa da Faculdade de Direito da Universidade Católica Portuguesa, Henrique Sousa Antunes, afirmou que não se pode garantir que as decisões tomadas por sistemas de inteligência artificial no presente e no futuro sejam sempre explicáveis. "É uma utopia considerar que a explicabilidade será sempre garantida. Isso gera naturalmente um problema, que é o de lidar com essas alucinações dos sistemas de IA."

O evento
Esta edição do Fórum Jurídico de Lisboa, ocorrida entre 26 e 28 de junho, teve como mote principal "Governança e Constitucionalismo Digital". O evento foi organizado pelo IDP, pelo Instituto de Ciências Jurídico-Políticas da Faculdade de Direito da Universidade de Lisboa (ICJP) e pelo Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento (CIAPJ/FGV) 

Ao longo de três dias, a programação contou com 12 painéis e 22 mesas de discussão sobre temas da maior relevância para os estudos atuais do Direito — entre eles debates sobre mudanças climáticas, desafios da inteligência artificial, eficácia da recuperação judicial no Brasil e meios alternativos de resolução de conflitos.

Clique aqui para assistir ou veja a mesa de discussão abaixo:

Tags:

Encontrou um erro? Avise nossa equipe!