Consultor Jurídico

Artigos

Você leu 1 de 5 notícias liberadas no mês.
Faça seu CADASTRO GRATUITO e tenha acesso ilimitado.

Opinião

Deslocar função estritamente decisória para máquinas é muito perigoso

Por  e 

É sabido que nos últimos anos tem aumentado o grau de interesse e até mesmo a aplicabilidade de instrumentos computadorizados ao Direito,[1] com a expressiva expansão do uso de softwares, técnicas de indexação, estatísticas[2] e aspectos correlatos. Para se ter uma ideia, no Tribunal de Justiça de Minas Gerais, o denominado PJe vem sendo implantado desde o ano de 2012 e o uso desta plataforma é obrigatório para novos ajuizamentos nas comarcas de grande e médio porte[3]. No âmbito do Superior Tribunal de Justiça, a resolução STJ/GP 10/2015 tornou obrigatório o peticionamento por meio eletrônico.

Por ora, já é evidente que as máquinas são úteis para fins de compilação de decisões judiciais e identificação de teses ou argumentos mais convincentes (estruturação de dados), mas é preciso registrar que: já existe a discussão sobre a possibilidade de serem utilizadas para decidir, ou algo muito próximo disso, pois fornecerão, por meio de algoritmos, respostas às questões submetidas a julgamento. [4]

Portanto, na esteira dos novos ventos tecnológicos, inumeráveis problemas se revelam, na medida em que se antevê que uma decisão judicial amparada por uma escolha advinda de um algoritmo seria por muitos considerada como inatacável, despida de equívocos, em função de sua suposta neutralidade. Tal crença se distancia da realidade, principalmente porque a máquina é capaz de herdar critérios subjetivos de escolha, alguns deles claramente equivocados, exigindo-se, por isso mesmo, mecanismos de controle das escolhas feitas pelos computadores. Como pontua Dedeo[5]: "[algoritmos] podem ser matematicamente ótimos, mas eticamente problemáticos.”

Os juristas brasileiros em geral vêm se apaixonando pelas potencialidades do uso das ferramentas e plataformas de inteligência artificial (IA) no Direito de modo completamente acrítico, talvez pelos grandiosos números de processos que temos em nosso Sistema Jurídico e pela busca de novos modos de dimensioná-los. No entanto, precisamos perceber “o risco associado à dependência acrítica em algoritmos”, sob sua suposta neutralidade, especialmente quando eles implicitamente ou explicitamente medeiam acesso a procedimentos decisórios de enorme relevância como são os judiciais. Como pontuam Osoba e Welser “as decisões algorítmicas não são automaticamente equitativas apenas por serem produtos de processos complexos”, de modo que a consistência processual dos algoritmos não é equivalente à objetividade.[6] Já se cogita de um viés (deturpação cognitiva) algorítmico.

Em importante estudo da sua utilização O’neill7 tenta demonstrar como o (machine learning) aprendizado de máquinas (a depender do foco de programação e dos pontos cegos – blind points) pode reproduzir padrões deturpados e de preconceito sob uma aura de neutralidade que foge da preocupação dos programadores (e, para nós, do controle do Direito). Relata como alguns dos resultados dos algoritmos auxiliam na mantença de bolsões de pobreza, bem como na potencialização da persecução criminal de latinos e afrodescendentes e na utilização de dados para proferimento de sentenças mais severas para estes grupos nos EUA. Defende o mapeamento dos vieses nas máquinas e que estes modelos matemáticos (preditivos), típicos das Inteligências artificiais, não possam ser percebidos como neutros e de potencial inevitável, como o tempo ou as marés, e exigem de nós responsabilidade e mecanismos de fairness e accountability em relação ao Big Data.

No entanto, ao largo dessa discussão mais profunda e somente sob a premissa de persecução de maior eficiência grandes escritórios no exterior[8] e no Brasil[9] vêm percebendo os potenciais do uso dos serviços de soluções de lawtechs para otimizar suas atividades, em especial para o trato da litigiosidade repetitiva (de massa), e vem se apostando inclusive na utilização dessas ferramentas com função preditiva (de antecipação de resultados) para estruturar grandes bases de dados decisórios.[10]

Desse modo, não representa uma simples “profecia” a existência de um computador-juiz[11], apesar de soar para a grande maioria como algo impactante (e quiçá ainda fictício) por significar uma ruptura cognitiva no processo decisório.[12] Ocorre que o uso desses algoritmos e dessas ferramentas no ambiente jurídico se configura como uma tendência irreversível, notadamente diante da realidade envolta à prestação da atividade jurisdicional brasileira, considerando-se o atual estoque de aproximadamente 100 milhões de processos em curso, cujo número expressivo dá azo ao acolhimento de toda e qualquer técnica ou tecnologia que prometa reduzir o acervo de casos a serem decididos.

O ponto de maior atração na inteligência artificial, extraível do teste de Turing,[13] corresponde à imitação do comportamento do homem pela máquina. De modo nada simples, para que a máquina imite o comportamento de um homem – a ponto de persuadir outros, passando-se por um de nós – são adotados itinerários complexos[14] que envolvem uma série de aspectos, que obviamente não podem ser aqui aprofundados geradores de reflexos no Direito.

Se, num nível mais básico, um computador é como um “pateta completamente obediente”[15], constatando-se uma completa dependência em relação ao seu estado interior e ao input[16], quando se trata de IA a questão se transforma profundamente, pois, como lembra Ganascia, “o comportamento de uma máquina é, com frequência, tão imprevisível que ela não deixa transparecer a sucessão das instruções elementares que lhe deram origem”[17].

De certa forma, é trivial afirmar que os homens e mulheres se valem de heurísticas para a tomada de decisões, sejam cotidianas ou também na construção de uma decisão judicial, compreendida a heurística como “um procedimento simples que ajuda a encontrar respostas adequadas, ainda que geralmente imperfeitas, para perguntas difíceis”[18]. Contudo, é de certo modo surpreendente constatar que os computadores também adotam procedimentos heurísticos[19], sobretudo porque dotados de alta capacidade de processamento de dados.

Ademais, numa época em que se pretende mediante algoritmos de IA se promover aprendizados de máquinas (machine learning) a partir de plataformas de serviços cognitivos (como o Watson da IBM) para reprodução do comportamento decisório humano, mediante estruturação de bases de dados (por exemplo, de precedentes) e efetiva prolação de pronunciamentos torna-se imperativa a compreensão de nosso sistema cognitivo de decisões, inclusive mediante e percepção dos vieses cognitivos humanos[20] e algorítmicos. À medida que os agentes artificiais assumem um papel maior nos processos de tomada de decisão similar ao humano, torna-se imperativo prestar atenção aos efeitos de falhas e de comportamentos incorretos das plataformas artificiais.[21] Percebe-se, assim, que a IA será tão boa quanto os dados que ela aprende, de modo que ao absorver dados inerentemente tendenciosos chegará a resultados igualmente equivocados.[22]

Nesses termos e com enfoque no cenário processual brasileiro, temos que associar esse estudo com o fato do CPC/2015 ter estruturado um uso peculiar dos precedentes[23] judiciais (ou, para dizer o mínimo, de padrões decisórios) que geram imediato reflexo em casos pendentes de julgamento e até mesmo sobre casos futuros, de modo a auxiliar no dimensionamento das litigiosidades. [24]

Sabe-se que temos uma verdadeira anarquia no trato do direito jurisprudencial e, não raro, constata-se impossível estabelecer uma cadeia de decisões que revele o entendimento de determinado tribunal sobre uma certa temática. Vê-se, ao contrário, um ambiente composto por idas e vindas inexplicáveis, com frequentes rupturas institucionais.

Num ambiente processual sobrecarregado o uso dos computadores e, em último caso, da inteligência artificial, fomenta a aplicação de padrões decisórios de modo mecânico e, pior, enviesado, dado os riscos da pressuposição da neutralidade do algoritmo ao estruturar a base de dados e oferecer um suposto entendimento correto.

Uma decisão judicial emanada de uma máquina poderia satisfazer os anseios dos adeptos de uma eficiência a qualquer custo e daqueles que propalam, acima de tudo, a segurança jurídica e isonomia entre litigantes, tendo em vista a impressionante habilidade de cálculo e suposta neutralidade da mesma, sendo a IA vista como técnica de implementação de uma exatidão nunca vista e alcançada.

É preciso perceber, de imediato, que se faz necessário combater os vieses algorítmicos das inteligências artificiais. Como defende O’Neil há de se criar (especialmente no Direito) um sistema regulatório para pleno respeito da Democracia que combata a opacidade e irrefutabilidade dos resultados algorítmicos, de sua programação e aprendizado. A crença de que o trabalho desenvolvido por estas novas ferramentas seja neutro e sempre superior ao de um jurista humano precisa ser posta em xeque. Em outros campos já se alude a um projeto de transparência e fiscalidade.[25]

Evidentemente que no Direito as IAs podem cumprir um papel virtuoso, entre outros, de compilação de casos passados, a permitir aos litigantes, advogados e julgadores uma melhor compreensão de como os tribunais vêm decidindo ao ofertar uma publicidade plena e estruturada dos julgamentos (do leading case até o mais atual) que favoreça a coerência, integridade e estabilidade, permita catalogar desde a propositura os casos repetitivos (e de onde provêm) e diminuir o déficit brasileiro no manejo de precedentes judiciais (anarquia interpretativa). Entretanto, nos parece muito perigoso o deslocamento da função estritamente decisória às máquinas, especialmente pela ausência de percepção dos vieses algorítmicos cada vez mais negligenciados.


1 E empresas que otimizam esse uso: Lawtechs.

2 Conferir: NUNES, Marcelo G. Jurimetria: como a estatística pode reinventar o Direito. SP:RT, 2016.

4 Cf. ALETRAS, N; TSARAPATSANIS, D; PREOŢIUC-PIETRO, D; LAMPOS V. Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective. Peer J Computer Science. 24.08.2016.

5 DEDEO, S. Wrong Side of the Tracks: Big Data and Protected Categories. N.Y.: Cornell Univ. Lib., 2015.

6 OSOBA, O; WELSER IV, W. An intelligence in our image: The Risks of Bias and Errors in Artificial Intelligence. S. M: Rand Coporation Ed, 2017. p.2.

7 O’NEILL, Cathy. Weapons of math destruction. NY: Brodway Books, 2016. p. 25 et seq., p. 204, 218, passim).

8 É justamente essa a proposta do ROSS, um sistema que usa inteligência artificial não apenas para encontrar casos antigos já julgados pela Justiça, mas também para dar algumas dicas a seus colegas a respeito da melhor maneira de aplicar tais decisões em casos atuais. O software é uma espécie de “advogado virtual” que usa a tecnologia IBM Watson para compilar e avaliar um enorme volume de dados, aprendendo com o tempo a melhor maneira de aplicar toda essa informação. CANAL TECH, Sistema com inteligência artificial ajuda advogados na hora de pesquisar a lei. 18.05.16. Disp. em: https://goo.gl/fH293U

9 “A assistente virtual que usa a inteligência artificial Watson [...]recebeu na empresa e o nome de Carol.” SATURNO, Ares. Inteligência artificial da IBM está ajudando escritório de advocacia brasileiro. 18.01.18. Disp. em: https://goo.gl/njdiaM

10 ALETRAS, N; et al. Predicting judicial decisions of the European Court of Human Rights.

11 Cf. o importante estudo: VALENTINI, Rômulo Soares. Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futurodo direito e do trabalho dos juristas. Belo Horizonte: UFMG. 2018. (tese de doutoramento)

12 Cf. uma critica hermenêutica a tal fenômeno: MOZETIC, Vinícius A. Os Sistemas Jurídicos Inteligentes e o caminho perigoso até a E-Ponderação artificial de Robert Alexy. 13.12.16 Disp. em https://goo.gl/XBzXRG

13 TURING, Alan M. Computing Machinery and Intelligence. Mind, New Series, Vol. 59, No. 236 (Oct., 1950), p. 433-460. Em 1950, Alan Turing escreve esse artigo e lança uma questão básica, porém fundamental: as máquinas podem pensar? A palavra pensar é dúbia, acompanhada por grandiosa problematização, mesmo que se trate de processos mentais restritos aos seres humanos e, ciente desta indeterminação, Turing, genial que foi, propõe que uma máquina seria considerada dotada de capacidade pensante se pudesse se passar por um ser humano, sem ser descoberta, numa espécie de jogo da imitação. Pode uma máquina imitar o comportamento de um homem? Cf. PENROSE, Roger. A mente nova do rei: computadores, mentes e as leis da física. RJ: Campus, 1991, p. 5. Curioso notar que Penrose, ainda na década de 1980, faz uma espécie de previsão, ao afirmar que acredita que o computador seria capaz de passar no “teste de Turing” nos anos 2010.

14 GANASCIA, Jean-Gabriel. Inteligência artificial. SP: Atica, 1997, p. 33-34.

15 No sentido de que o computador simplesmente executa um algoritmo, um padrão de passos simples ordenados. WHITBY, B. Inteligência artificial: um guia para iniciantes. São Paulo: Madras, 2004, p. 38.

16 PENROSE, R. A mente nova do rei. p. 39.

17 GANASCIA, J. Inteligência artificial. cit. p. 31.

18 KAHNEMAN, Daniel. Rápido e devagar: duas formas de pensar. RJ: Objetiva, 2012, p. 127.

19 WHITBY, B. Inteligência artificial: um guia para iniciantes. SP: Madras, 2004, p. 40.

20 Como já se estuda a partir da psicologia comportamental cognitiva desde Tversky e Kahneman o processo decisório humano não é prioritariamente racional. Como aponta Zajonc “nós às vezes nos iludimos que procedemos de um modo racional e pesamos todos os prós e contras das várias alternativas. Mas é provável que raramente seja o caso. Muitas vezes "eu decido em favor de X" significa nada mais do que "eu gostei de X”. "A maioria do tempo, informações coletadas sobre alternativas nos servem menos para tomar uma decisão do que para justificá-la depois. A difusão é predominante só porque uma apuração completa não é realizada antes da decisão (Festinger, 1964). Compramos os carros que "gostamos”. ZAJONC, R. B., Feeling and thinking preferences: need no inferences. American psychologist, Feb./1980,v. 35, No. 2, p. 155.

21 OSOBA, O; WELSER IV, W. An intelligence in our image. p. 7.

22 Idem. p. 17.

23 Cf. Palestra com advertência das IA no direito: https://goo.gl/mDUiCP

24 Cf: VIANA, Aurélio; NUNES, Dierle. Precedentes: a mutação no ônus argumentativo. RJ: Forense, 2018.

25Especialmente sobre a coleta de dados e seu uso veja: NARAYANAN, A; REISMAN, D. The Princeton Web Transparency and Accountability Project. Disp. em: https://goo.gl/e2qJph

 é advogado, doutor em Direito Processual, professor adjunto na PUC Minas e na UFMG e sócio do escritório Camara, Rodrigues, Oliveira & Nunes Advocacia (CRON Advocacia). Membro da Comissão de Juristas que assessorou na elaboração do CPC/2015.

Aurélio Viana é advogado, mestre em direito processual (PUCMinas). Vice-presidente da Comissão de Direito Imobiliário da OAB – Subseção Contagem.

Revista Consultor Jurídico, 22 de janeiro de 2018, 7h18

Comentários de leitores

1 comentário

Excelente Artigo

Roberto Pedreira (Assessor Técnico)

Uma questão que observo, a respeito do tema (Inteligência Artificial e Direito), é a aparente contradição entre o uso de algoritmos para elaboração de decisões (substituição de juízes por máquinas) e confecção de petições (substituição dos advogados por máquinas) e a tendência atual à conciliação e mediação, posto que jamais um computador conseguirá lidar com as nuances e peculiaridades dos meios adequados de resolução de conflitos, cada vez mais prestigiados pela legislação, jurisprudência, operadores do direito e jurisdicionados em geral.

Comentários encerrados em 30/01/2018.
A seção de comentários de cada texto é encerrada 7 dias após a data da sua publicação.