Consultor Tributário

Algoritmos exigem novas formas de se respeitar o devido processo legal

Autor

  • Hugo de Brito Machado Segundo

    é mestre e doutor em Direito professor da Faculdade de Direito da Universidade Federal do Ceará (de cujo programa de pós-graduação — mestrado/doutorado — foi coordenador) professor do Centro Universitário Christus (graduação/mestrado) membro do Instituto Cearense de Estudos Tributários (Icet) e da World Complexity Science Academy (WCSA) advogado e visiting scholar da Wirtschaftsuniversität em Viena (Áustria).

29 de janeiro de 2020, 8h00

Spacca
As instituições jurídicas, como as criações humanas em geral, evoluem em um lento processo de tentativa e erro. Nesse contexto foi que, ao cabo de diversos séculos, o exercício do poder político se passou a submeter a importantes limitações, das quais se realça, para trato aqui, o princípio do devido processo legal.

No âmbito tributário, é certo, já se conheciam, na Antiguidade, institutos como os princípios da capacidade contributiva e da igualdade tributária, os quais de algum modo já conformavam a maneira como a tributação deveria ocorrer.

O Direito Romano, notadamente no período imperial, é rico em exemplos. O problema era o que fazer quando o imperador — ou, depois, o rei — simplesmente resolvia agir de maneira diferente. Foi nesse ponto que os modernos, pelo menos no campo do Direito Público, realmente inovaram em algo importante.

E, embora tais limitações se apliquem aos mais diversos âmbitos da atuação estatal, é da relação tributária que advém sua gênese. As principais revoluções que legaram à humanidade catálogos de direitos fundamentais e instituições destinadas a garanti-los — como separação de poderes, irretroatividade, legalidade etc. — foram consequência do abuso do poder de tributar e da tentativa de se criarem mecanismos para coibi-lo.

Quanto ao devido processo legal, embora suas consequências e desdobramentos sejam inúmeros, pode-se apontar, em síntese, que dele decorrem limitações de ordem diversa ao exercício do poder estatal, a depender da função de que se está a cogitar, a saber, de criação ou de aplicação de normas.

O poder estatal deve ser exercido nos termos de normas pré-estabelecidas, e o princípio do devido processo legal impõe que se observem requisitos ou condições na própria elaboração dessas normas, ligados à escolha dos que as irão elaborar e ao procedimento que nesse mister devem seguir.

Leis feitas por representantes eleitos, em processo do qual participam e têm voz pessoas com pensamentos divergentes são consequência disso. Entretanto, tais normas precisarão naturalmente ser aplicadas, não raro também por autoridades estatais.

O poder, então, deve ser novamente contido, mas desta feita os reflexos do devido processo legal são outros, ou se manifestam de modo diverso: ampla defesa, contraditório, dever de fundamentar o ato de aplicação da lei etc.

Tais criações jurídicas, contudo, estão a ser postas à prova por conta do crescente uso que as autoridades do poder público fazem de sistemas informatizados, recorrendo à inteligência artificial para tomar decisões a respeito da aplicação de normas jurídicas.

Não se trata de previsão futurista, mas de realidade presente já em diversas repartições do Poder Executivo e do Poder Judiciário, em várias partes do mundo, especialmente no Brasil. Alfândegas em portos e aeroportos, fiscalizações de imposto de renda e demais tributos federais reflexos, fiscalizações de ICMS, realização de lançamentos tributários, investigação de esquemas de evasão e até julgamentos por Cortes Superiores do Poder Judiciário. Os exemplos são vários.

A leitora pode, então, perguntar-se o que isso tem a ver com o devido processo legal, e no que, exatamente, tais tecnologias implicam ameaça à sua efetividade. Afinal, tais sistemas não apenas ajudam as autoridades a aplicar a lei de maneira impessoal, coerente e mais eficiente? Em tese, sim, mas, a depender de alguns fatores examinados a seguir, o uso de algoritmos por autoridades do poder público tem o potencial de afetar sim o respeito ao devido processo legal em suas duas facetas antes resenhadas, a saber, a da elaboração e a da aplicação de normas (CITRON, Danielle Keats. Technological due process. Washington University Law Review, v. 85, p. 1249).

No que tange à elaboração de normas, coloca-se o problema de saber quais regras o algoritmo irá seguir. Em tese, diante da legislação complexa e abundante, a máquina seguirá os critérios e os parâmetros que os seus programadores apontarem como devidos. Mas os programadores foram eleitos? Dir-se-á que programarão as máquinas para seguirem a lei, esta sim feita por representantes eleitos. Bom, mas o que é seguir a lei? Se juristas têm (bastante!) dificuldade nisso, o que dizer dos cientistas da computação? Como obviamente não há uma resposta fácil e direta para a pergunta sobre o significado dos textos normativos, os programadores, na melhor das hipóteses, partirão da interpretação oficial dada pela administração à lei, não raro espelhada em instruções normativas, portarias, ou quaisquer outras normas de bastante baixa hierarquia, as quais comumente extrapolam ou extravasam o conteúdo dos textos legais que supostamente regulamentam. E para piorar pode ser que sofram simplificações e reducionismos para “caberem” melhor no algoritmo.

A esse primeiro problema, ligado à própria definição do conteúdo e do alcance das regras a serem aplicadas, soma-se outro, mais grave, relacionado ao controle de possíveis equívocos, seja na compreensão das regras jurídicas, seja na sua aplicação, que depende por igual da cognição a respeito dos fatos sobre os quais tais regras terão incidido. Se o algoritmo partir de critério jurídico equivocado, ou tiver compreensão distorcida ou errada da realidade factual, como corrigir as suas conclusões, ou as conclusões que a autoridade, com seu auxilio, vier a subscrever?

Alguns exemplos, que até nem dizem respeito propriamente ao Direito Tributário, podem ilustrar o que se está a dizer.

Nos Estados Unidos, há alguns anos, um cidadão chamado Steve Talley saiu de sua casa para verificar algo em seu veículo, que estava estacionado na rua em frente, quando sentiu uma pancada nas costas e se viu rapidamente deitado, imobilizado e espancado. Reunia forças para gritar por socorro e chamar a polícia, quando percebeu que era golpeado justamente por policiais, que o estavam a prender.

Mais tarde, na delegacia, descobriu que fora identificado como um perigoso ladrão de bancos. Um poderoso sistema de reconhecimento facial havia identificado seu rosto como sendo o de um homem que aparecia em imagens captadas por câmeras de segurança em alguns bancos recentemente assaltados, o que motivou sua prisão. Por sorte, Talley possuía um álibi bastante sólido, com o qual conseguiu provar que não era nem poderia ser ele a pessoa que aparecia nas filmagens. Mesmo assim, como havia sido um algoritmo de reconhecimento facial que o havia identificado como sendo o ladrão, passou vários meses preso e levou mais de um ano para limpar completamente o seu nome (Cf., FRY, Hannah. Olá Futuro. Lisboa: Planeta, 2019, p. 198).

O exemplo de Talley é emblemático do que se está aqui a dizer. Com efeito, quando se discute a respeito do uso de algoritmos na tomada de decisões, seja no âmbito público, seja no privado, geralmente se admite que eles, os sistemas de inteligência artificial, são falíveis, mas que sua falibilidade é muito, mas muito menor que a humana. Em outros termos: eles erram, mas erram muito menos do que nós, então qual o problema de gradualmente nos substituirmos nas mais diversas tarefas, incluindo a de aplicar a lei?

A verdadeira questão, contudo, não é essa. Não importa se os algoritmos erram menos e, nessa condição, podem substituir o trabalho humano, ainda que apenas em tarefas mais mecânicas. Essa sua menor falibilidade, na verdade, pode até mesmo ser a fonte do principal problema em seu uso, pois leva a um relaxamento quanto ao controle de seus eventuais erros.

Com efeito, o verdadeiro ponto é a necessidade de se criarem mecanismos para controle dos erros praticados por eles, os quais, conquanto supostamente menos frequentes, ainda assim podem acontecer, com efeitos bem mais nefastos.

Quando uma tarefa começa a ser levada a efeito por sistemas automatizados, vários vieses e de vícios cognitivos entram em ação nos humanos que com eles interagem. As pessoas tendem a pensar que os algoritmos não erram, ou erram com menos frequência que os humanos, o que implicitamente faz com que não vejam com bons olhos a tarefa humana de revisar o que um algoritmo determinou. Pode ser o caso de um desembargador ou um ministro, diante de embargos de declaração opostos contra um acórdão redigido com a ajuda de um poderoso algoritmo. A tendência a confirmar a conclusão da máquina será irresistível. Por isso, aliás, que Steve Talley apanhou tanto e passou tanto tempo preso, apesar do álibi que tinha: não se aceitava que o mecanismo de reconhecimento facial pudesse ter errado.

Mas não só. Quando os humanos automatizam uma tarefa, tendem com o tempo a desaprender como levá-la a efeito por si mesmos. Uma demonstração banal disto é a nossa atual incapacidade de memorizar números de telefone, já que estão todos na memória de nossos celulares. Mas, se memorizar números pode ser algo realmente inútil, e nessa condição vantajoso de se transferir a um dispositivo, o mesmo talvez não possa ser dito de outras tarefas, como a de interpretar e aplicar normas. É preciso que o intérprete humano, apesar do uso de algoritmos, esteja pronto para revisar o trabalho feito por estes, sem perder a habilidade de fazê-lo por conta própria, como ocorreu tragicamente no acidente do Airbus A330 da AirFrance, que ao fazer a rota Rio-Paris caiu por inabilidade de seus pilotos quando o sistema automático entrou em pane pelo congelamento do tubo pitot. Como o avião praticamente voa sozinho, o piloto levou preciosos segundos até compreender o que se passava e decidir o que deveria manualmente fazer, levando o avião a cair no oceano.

No que tange à aplicação do Direito, para corrigir tais problemas, e manter efetivo o princípio do devido processo legal, é preciso controlar o exercício do poder, mesmo quando levado a efeito com o uso de algoritmos, considerando as particularidades inerentes a esse uso. Deve-se ter em mente que o algoritmo, embora menos falível que o humano, é, ainda assim, passível de erros. Essa possibilidade deve estar na mente dos que lidam com eles e contam com seu auxílio na tomada de decisões. Autoridades devem ser treinadas e constantemente alertadas para essa possibilidade, mantendo uma saudável desconfiança relativamente ao algoritmo. É necessário, ainda, que os sistemas informatizados mantenham um registro (“log”), dos atos que praticam, e, mais importante, dos motivos — de fato e de direito — que amparam a prática de tais atos. Por que parar José, e não João, na fila da Alfândega? Por que considerar que Francisco é um possível sonegador, e não Maria? Os motivos de tais decisões devem ser registrados, para permitir posterior controle de sua correção factual e de sua legalidade.

Quanto à elaboração dos algoritmos, quando usados por autoridades do poder público, em quaisquer dos três poderes, é preciso que a sociedade civil de algum modo participe da sua confecção, por meio de comitês de especialistas, os quais poderão testar o funcionamento de tais sistemas, à procura de erros e também para entender os critérios que pautam seu funcionamento. Devem ser especialistas em Direito, e em Ciência da Computação, pois do mesmo modo como programadores não podem fazer um simulador de voo de respeito sem o auxílio de físicos especialistas em aerodinâmica, também não farão máquinas dedicadas à aplicação do Direito sem a colaboração dos que humanamente levam essa tarefa a efeito e nela são especialistas. Teóricos do Direito e da Computação, juntos, terão melhores condições de programar máquinas a seguirem regras, a identificarem, com base em princípios, possíveis exceções a elas etc., debate que não tem como ser levado a efeito senão com a atuação direta de juristas.

É preciso, enfim, que a sociedade fiscalize e controle a elaboração e o uso de sistemas inteligentes por parte do Poder Público, por meio de entidades independentes, em um repensar do due process of law. O que não se pode aceitar é que os resultados da atuação de algoritmos sejam não apenas calcados em premissas sigilosas, mas também aceitos de maneira cega, por autoridades executivas ou judiciárias, sob o pretexto de que foi “o sistema” que assim determinou, devendo ser aceito por que em tese menos falível que nós humanos. Se isso for admitido, toda a garantia representada pelo princípio do devido processo legal irá para o espaço. Para validar qualquer abuso, bastará por a culpa no sistema.

Autores

  • Brave

    é doutor e mestre em Direito, advogado e professor da Faculdade de Direito da Universidade Federal do Ceará e do Centro Universitário Christus (Unichristus). Membro do Instituto Cearense de Estudos Tributários (Icet) e da World Complexity Science Academy (WCSA). Visiting scholar da Wirtschaftsuniversität (Viena, Áustria).

Tags:

Encontrou um erro? Avise nossa equipe!