Opinião

A irresistível decisão das máquinas

Autor

  • Christiano Sobral

    é diretor executivo do Urbano Vitalino Advogados law master em Direito Digital mestre em Estratégia e especialista em marketing finanças economia e negócios advogado e administrador.

2 de outubro de 2021, 6h03

Victor, o algoritmo baseado em inteligência artificial que auxilia no juízo de admissibilidade no Brasil, e Compas (sigla em inglês para Correctional Offender Management Profiling for Alternative Sanctions), que calcula a dosimetria da pena nos Estados Unidos: eles estão assumindo parte da responsabilidade dos que deveriam julgar? Ou são só ferramentas de recomendação? 

Essa é uma discussão que, com o tempo, deverá se intensificar, especialmente quando surgirem divergências fortes no entendimento entre quem solicitou e quem foi influenciado pelo que foi decidido. Mas e se a questão for mais profunda e precisarmos refletir quanto à capacidade dos julgadores de irem contra o que foi recomendado por um algoritmo? 

Observando o dia a dia das pessoas normais, o que vemos é a contínua perda de capacidade de tomar caminhos distintos dos indicados pelas máquinas, e o exemplo está bem documentado em obras como a de Yuval Harari, ao abordar nosso comportamento frente às recomendações de aplicativos de localização. 

No exemplo dele, uma pessoa tem um compromisso importante que não pode perder. Então consulta a ferramenta, que lhe sugere um caminho que não o agrada, levando-o a optar por um outro e, por fim, acabando por fazê-lo perder o compromisso. O que você acha que ocorrerá da próxima vez? 

Esse é o caminho pelo qual aquilo que deveria ser um mero sugestor se incorpora ao nosso modo natural de escolher caminhos e, no fim, nos tornando incapazes de fazer diferente. Eu, por exemplo, conheço pelo menos três pessoas que só dirigem se seus aplicativos de navegação estiverem ativados em suas telas. 

Isso não ocorre por nenhuma falha de caráter ou algo assim, mas por um viés que a psicologia econômica chama de ancoragem. E já é há muito conhecido das pessoas. Ele é o motivo, por exemplo, de ser importante fazer a primeira proposta em uma negociação. 

Aquela primeira informação sobre o destino desejado se torna, quer queira, quer não, um limitador da nossa capacidade de decidir. Ou seja, não conseguiremos mais pensar muito longe da rota indicada. O mesmo ocorrendo nas recomendações de sites, aplicativos de músicas, sistemas de busca e, por que não?, de robôs como o Victor. 

Uma vez que somos seres humanos e temos essa dificuldade involuntária na construção das nossas decisões, como podemos garantir o comprometimento dos julgadores frente as recomendações das máquinas? 

Não que isso seja necessariamente um problema, dado que existem indicativos de que as máquinas decidem melhor do que humanos. Mas existem diferentes alcances dessas decisões, algumas não envolvem riscos e são objetivas e, por isso, fáceis de contestar (como a admissibilidade de um recurso), mas outras são complexas e possuem consequência graves sobre a comunidade (como a dosimetria da pena). 

Hoje, segundo o CNJ, temos mais de 40 projetos que fazem uso de inteligência artificial espalhados por 30 tribunais e cobrindo todas as regiões do país, com relatos de soluções que extinguiram áreas inteiras como as de execução fiscal. Mas até que ponto o risco das consequências do uso de cada uma delas está sendo analisado? E que medidas de limitação ética estão sendo embutidas nessas soluções? 

Estamos no início da revolução do uso de inteligência artificial e esses cuidados precisam ser tomados agora, no início do designer de cada um dos projetos. Antecipando-nos às possíveis consequências indesejáveis de vieses incorporados às decisões automáticas dos algoritmos. 

Autores

Tags:

Encontrou um erro? Avise nossa equipe!