Senso Incomum

Um robô pode julgar? Quem programa o robô?

Autor

3 de setembro de 2020, 8h00

Resumo: Quem programa o programa do robô? Uma pessoa? E quem controla essa pessoa? Outra pessoa? E quem…?!

Spacca
Debates teóricos são coisa rara. No Brasil não se naturalizou a ideia de que um debate filosófico é um debate filosófico; desacordos teóricos não são críticas pessoais. Parafraseando Dworkin, desacordos teóricos, no Direito, são uma terça-feira monótona.

Faço esse preâmbulo porque, hoje, quero fazer uma crítica — lhana e construtiva — aqui a um amigo, Alexandre Morais da Rosa, e Daniel Henrique Arruda Boeing, coautores de um novo livro: “Ensinando um Robô a Julgar: Pragmática, discricionariedade, heurísticas e vieses no uso de aprendizado de máquina no Judiciário”.

Ainda não tive o prazer de tomar um café com Daniel, mas conheço bem Alexandre e sei que temos preocupações muito parecidas. Compartilhamos o que é fundamental. Discordamos na solução para os problemas que nos preocupam. E é precisamente porque acredito no trabalho dos dois autores que faço aqui a crítica. Porque acredito na riqueza do debate filosófico e acho que é assim que se faz teoria do direito.

Muito bem. Quando vi o título da obra, já fiquei com um elefante atrás da orelha. Sou um jurássico. Sou cético quanto ao ceticismo jurídico (e qualquer tese empirista é cética!) que acha que, agora, a tal "inteligência artificial" é a panaceia que resolve tudo — da lateral-direita na Seleção à discricionariedade ou decisionismo no Direito.

A obra discute "as peculiaridades do aprendizado de máquina em face de outros modelos estatísticos, bem como quais são os requisitos necessários para que tais algoritmos possam ser utilizados na performance de argumentação jurídica". Depois, discute a filosofia analítica de Kelsen e Hart e fala do "problema do decisionismo" nesses teóricos,[1] passando para uma discussão sobre “como linguagens artificiais são capazes de assimilar o âmbito pragmático de linguagens naturais e de que forma processos decisórios humanos e algorítmicos são afetados por vieses”. Depois, Alexandre e Daniel reúnem "três tipos de uso mais recorrentes do aprendizado de máquina no Judiciário": o "Robô-Classificador", o "Robô-Relator" e o "Robô-Julgador".

Tenho algumas críticas ao modo como Daniel e Alexandre fizeram suas críticas a Kelsen e Hart. Ambos recorrem a Warat — bom! —, mas acho que ignoram algumas nuances fundamentais nos dois positivistas e algumas objeções que a literatura mais recente fez ao paradigma filosófico ali comentado. Voltarei a isso depois. Por ora, vemos aí aquilo que eu havia dito antes: temos uma preocupação comum. A discricionariedade é um problema.

Mas me incomoda que a saída adotada, ainda que bem intencionada, seja esse realismo jurídico 2.0. Sim, esse é o nome científico da coisa. Ora, a "machine learning" de que os autores falam, em suas palavras, refere-se a "algoritmos que podem 'aprender' a partir de dados e fazer predições". Eis o realismo jurídico, esculpido em carrara. Porque é empirismo. A tese de Daniel e Alexandre é: para resolver o "decisionismo", passaremos a nos contentar em prever o que o Judiciário dirá que o Direito é?! Então é o robô (a tecnologia) que passará a "pôr" o "fato social"?  É a velha tese de Wendell Holmes. Só que agora é um robô. Realismo tech.

Alexandre e Daniel substituem o empirismo do velho realismo pelo realismo high tech. Veja-se: não é ruim ser realista jurídico. Apenas há consequência na adoção da tese, uma vez que o polo de poder fica todo no juiz. Bem, agora vai para a máquina. Ah, mas a máquina é apenas uma “coisa” alimentada pelo homem. Mas, então?  Fica, ademais, uma pergunta: como fica a doutrina? O que resta para a doutrina? Aqui uma homenagem minha a Bernd Rüthers.

Sigo. Qual é o busílis aí? Sejam os estudos empíricos dos realistas do século 20, sejam os algoritmos de Alexandre e Daniel, ambos recaem no mesmo problema fundamental que há no positivismo (e o realismo é nada mais, nada menos, do que positivismo fático — Warat não concordava em nada com o realismo) — e que não é enfrentado pelos autores. E qual é o problema? Simples. O Direito é visto como mera questão de fato. Previsões. Ora, qual é o sentido em "prever" algo sem uma epistemologia robusta que dá as condições de possibilidade para aquele que diz o que será então "previsto" pelo algoritmo?! Os problemas já começam de saída.

Os autores seguem e dizem, bem, que "para que um programa de computador seja capaz de desempenhar atividades jurídicas ele deve possuir meios de não apenas responder questões, mas também de explicar suas respostas de forma inteligível aos profissionais do direito". A partir da identificação desse problema, que é um problema mesmo, Alexandre e Daniel dizem, novamente bem, que "existem regras específicas de validade de provas (dados) e âmbitos de atuação", que há "sutilezas".

Reconhecidas essas questões, os autores propõem melhorias em algoritmos existentes, para que a inteligência artificial no Direito seja capaz de "distinguir entre documentos relevantes e irrelevantes para um determinado caso, diferenciar trechos de decisões judiciais", "identificar estruturas argumentativas em documentos legais", enfim. Alexandre e Daniel montam belos gráficos.

Tudo muito bem construído. O problema é que eles erram exatamente onde a máquina tampouco daria conta. A chave está aqui: lembremos, eles dizem que "para que um programa de computador seja capaz de desempenhar atividades jurídicas ele deve possuir meios de não apenas responder questões, mas também de explicar suas respostas de forma inteligível aos profissionais do direito". Eles também disseram isso: não só responderam as questões levantadas, como explicaram suas respostas de forma inteligível. Nesse ponto, saúdo os autores.

O problema é que Daniel e Alexandre erraram não na resposta, mas na formulação das perguntas. E é exatamente o mesmo erro: ora, para que um programa de computador "seja capaz de desempenhar atividades jurídicas", ele não deve apenas "responder questões" e nem apenas "explicar suas respostas". Ora, deve saber fazer perguntas. Deve saber interpretar. Porque "atividades jurídicas" — e Daniel e Alexandre não explicam o que querem dizer com "atividades jurídicas" — são (e Dworkin mostrava isso, Alexandre sabe bem) interpretativas. Daí porque, para além de fazerem o que eles bem apontaram (melhor do que eu faria; não conseguiria fazer aqueles gráficos), o computador, para desempenhar atividades jurídicas, deve interpretar.

Sim, o robô deve interpretar. E aí está o paradoxo: não seria mais um computador. Alexandre e Daniel, pois, têm boas respostas. Mas erraram nas perguntas. E mesmo assim estão ainda melhor que as máquinas, que sequer saberão articulá-las. E aí não há gráfico, não há machine learning, não há algoritmo ou analytics que dê conta. Lamento.

Passada essa parte, aí os autores entram na minha área. Cheguei ansioso ao segundo capítulo, que discute "A linguagem no Direito: pragmática e discricionariedade".  Alexandre e Daniel começam bem e começam mal. Começam bem citando Warat; mas também começam mal quando dizem que "tanto a atividade do juiz, quanto a dos robôs, estarão sujeitas à imprecisão da linguagem natural (vagueza e ambiguidade), abrindo espaço para casos em que há margens de interpretação". Opa, como assim? Não existe esse negócio de "casos em que há margens de interpretação". A própria definição de vagueza e ambiguidade é já uma questão interpretativa. O mais simples dos enunciados jurídicos é interpretado. Até quando digo que um relógio estragado não acerta as horas estou interpretando e fazendo um juízo moral. Não existe cisão entre aplicação e interpretação. Nada mais positivista que isso. Alexandre sabe disso. Outra coisa: o criticado neopositivismo lógico, nesse sentido, era muito mais avançado. Simplesmente substituía a realidade por proposições sobre o mundo. A ficção da metalinguagem, fictícia que seja, conserva o negócio de pé e limpo. Sem esse artifício, ficamos sujos de realidade. Até os robôs.

Na sequência, os autores dizem que, nos easy cases, o sistema pode indicar respostas, e que "novas variáveis" surgem nos hard cases. De novo o problema. O que é um easy case? Ao menos, os autores são coerentes: o erro aqui é o mesmo erro cometido anteriormente. Daniel e Alexandre continuam a operar com a cisão entre easy cases e hard cases, regra e princípio, discursos de justificação e discursos de aplicação. Vejam qual é o problema fundamental aí: não superaram o problema das múltiplas respostas — o que reafirma os alicerces do positivismo jurídico — uma teoria meramente descritiva que não se preocupa com a decisão — , o que reafirma o próprio decisionismo que buscavam resolver.

Não vou (re)discutir Kelsen e Hart. Alexandre e Daniel acertam, em alguma medida, na questão da discricionariedade como consequência do paradigma analítico. Apenas eu faria uma distinção diferente acerca do sentido de decisionismo e de discricionariedade e do modo como isso aparece em Hart e como isso aparece em Kelsen. De todo modo, estamos juntos: também rejeito a discricionariedade — sou insuspeito! — e me interessa seguir no ponto.

O problema aí é que volta a questão: a "solução" proposta no livro nos termos da inteligência artificial continua no chão linguístico lançado pelos analíticos. Ora, a aposta nos algoritmos depende da pretensa cisão entre o ato do conhecimento do sentido de um texto e a sua aplicação a um determinado caso concreto — depende, pois, de inadequadas contraposições fundadas no (metafísico) esquema sujeito-objeto. E isso é fatal. Não se pode cindir o que é incindível, como já dizia Castanheira Neves. Os autores correm o risco — e, vejam, sou cauteloso, digo que correm o risco — de buscarem um resposta que não formula perguntas, incapaz de reconhecer o Direito em sua dimensão interpretativa. A resposta epistemológica de Alexandre e Daniel pode ser muito boa em seus termos — e reconheço isso sinceramente — mas jamais conseguirá resolver um problema de hermenêutica.

Há outros problemas. Os autores reconhecem, bem, que certas opiniões enviesadas — e, destaco, ilegais-inconstitucionais! — como "fundamentações" (sic) baseadas em histórico criminal de familiar do condenado “quando embutidas em um algoritmo, além de se revestirem de autoridade científica, tais opiniões passam geralmente despercebidas”. Isso porque, em um dado momento, "alguém decidiu" que eram relevantes para o algoritmo. Claro: alguém alimenta o robô… Aqui um parêntesis e uma indagação: Alexandre e Daniel estariam admitindo que um robô possa julgar processos criminais? Um robô aplicando pena? As conclusões do livro, e as distinções entre os "tipos de robôs", deixam muitas questões em aberto. Questões perigosas. Como deixá-las em aberto, pois?! Por isso, neste debate, estas reflexões podem servir para que os autores deixem isso mais claro.

Vejam isso. Esse 'pequeno probleminha', mencionado em passant em duas páginas do livro, é suficiente para derrubar toda essa aposta repleta de fé na inteligência dos algoritmos. Alguém decidiu, em algum momento, que uma dada opinião, era relevante para o algoritmo. Claro. Robô não pensa. O que parece difícil de explicar é uma coisa anterior: como controlar a discricionariedade para estruturar o algoritmo que vai resolver o problema da discricionariedade (ou o nome que se dê a isso)?

Claro, os autores dirão que a solução é montar o algoritmo de forma adequada. Mas aí reparem bem: a solução que eles apresentam lança um novo problema que exige uma solução nova. Até que alguém resolva inventar um novo algoritmo pra resolver esse problema…! Já que Kelsen é mencionado (e nem poderia deixar de o ser), permito-me, sempre respeitosamente, brincar um pouco e dizer que estamos à espera do Grundalgoritmo! Pressuponha-se que exista um algoritmo que Ou um algoritmo tipo "como se" (als ob), uma ficção necessariamente útil (como se sabe, Kelsen, na Teoria Geral das Normas, trocou o fundamento epistêmico da NF).

Por fim, os autores — com base nas ricas e preciosas análises que fizeram sobre o funcionamento das máquinas — delineiam os diferentes tipos de robôs que, afirmam, poderiam auxiliar no Direito. Mas repetem seu sempre coerente erro: "hard cases se mostram incompatíveis com a aplicação do aprendizado de máquina".

Ou seja, toda a argumentação de Alexandre e Daniel depende da possibilidade de raciocínios dedutivos (causais-explicativos) para os "casos simples". Que serão atribuídos por alguém que faz essa cisão. E, sempre de novo: quem diz o que é um easy case? Aliás, como afirmo de há muito, um hard case só existe porque ainda não foi compreendido. E um easy case é um hard case que foi compreendido. Ou, de outro modo: a cisão entre easy e hard cases já é um hard case.

Acreditar na distinção (cisão) entre casos simples (fáceis) e casos difíceis (complexos) é pensar que o direito se insere em uma "suficiência ôntica" (cf. Verdade e Consenso), isto é, que a "completude" do mundo jurídico pode ser "resolvida" por raciocínios causais-explicativos, em uma espécie de "positivismo da causalidade", um positivismo do século 19 — se examinarmos tecnicamente essa teoria.

Mais: Partir de uma pré-elaboração (prima facie) do que seja um caso simples ou complexo é incorrer no esquema sujeito-objeto, como se fosse possível existir um "grau zero de sentido", insulando a pré-compreensão e tudo o que ela representa como condição para a compreensão de um problema.

Eu saúdo a preocupação de Alexandre e Daniel com a discricionariedade e acho que a resposta que eles oferecem é uma boa resposta… para as perguntas erradas. Curiosamente, é exatamente o que acontece com as máquinas que eles sugerem como solução: terão respostas maravilhosas. Mas quem vai fazer as perguntas? Eis a pergunta.

Uma resposta pode ser muito bem elaborada e trazer vários ensinamentos sobre áreas diferentes e específicas do conhecimento. É o caso desse belo livro de Alexandre e Daniel. Aprendi muito. Mas tenho profundas divergências. Respostas boas e elaboradas podem ser boas e elaboradas, mas não serão satisfatórias quando errarem nas premissas. Não há solução quando o que se pretende como solução compartilha as bases do problema que pretende resolver.

Com todo o respeito que tenho por tudo o que Alexandre Morais da Rosa representa no âmbito da crítica e da defesa da democracia — e seu valor é enorme — , e pela preocupação que, repito, compartilhamos, parece-me que a saída oferecida no livro é uma espécie de desprezo pelo jurídico. Isto porque os realistas de então apostavam no que eram as inovações da época; os teóricos críticos apostaram sempre na política. Agora, a aposta é nos algoritmos.

Com isso, negligencia-se o elevado grau de autonomia[2] que deve ter o Direito e a dimensão interpretativa do fenômeno que, entendido corretamente em sua própria tradição autêntica, exige que a doutrina enfim passe a construir bases sólidas para uma adequada teoria da decisão, para a possibilidade de respostas constitucionalmente adequadas — que não dependam do algoritmo, já que existe (e os próprios Alexandre e Daniel reconhecem isso…!) aí alguns pequenos probleminhas…

Em resumo, permito-me acrescentar: apostar em robôs ou admitir que robôs possam "julgar" (ou de algum modo substituir o trabalho dos juízes) nada mais é do que transferir o polo de tensão (poder) do Direito para o poder julgador. Antes, era o instrumentalismo, o realismo; agora poderá ser o robô. O problema é: quem é o dono do robô? Quem o alimenta? Cabem embargos de declaração da decisão de um robô? Quem decidirá? Como o robô aplicará os incisos de I a VI dos artigos 489 do CPC e 315 do CPP? Ou o robô responderá, de forma padronizada (afinal, é um robô) que nada tem a esclarecer? Como os algoritmos resolvem uma distinguishing? Como interpretam o artigo 916 do CPC? Comi identificar um precedente e comparar com o caso concreto sem cair em uma abstratalidade? E o artigo 10, da não surpresa? E se o robô, ele mesmo, for surpreendido?

Eis a questão. Agradeço aos autores por propiciarem este debate. Aprendi muito. E pretendo aprender muito mais.

Uma observação final. Comprei e li o livro sob comento. Para criticar, tem de ler. Isso vale para todas as críticas na doutrina.


[1] Permito-me, respeitosamente, dizer que não há decisionismo em Hart.  É absolutamente complexa essa questão “perspectiva interna e externa em Hart”. Assim como a regra de reconhecimento.

[2] Cf. o verbete Autonomia do Direito, in Streck, L.L., Dicionário de Hermenêutica. 2. Ed, Casa do Direito. 2020.

Tags:

Encontrou um erro? Avise nossa equipe!