Diário de Classe

O "fim" do Direito: novas tecnologias, algoritmos e o fator Olaf

Autor

  • Rafael Fonseca Ferreira

    é advogado pós-doutor doutor e mestre em Direito Público pela Universidade do Vale do Rio dos Sinos (Unisinos) professor da Universidade Federal do Rio Grande (Furg) e da Universidade Feevale membro do Dasein – Núcleo de Estudos Hermenêuticos e sócio de Rafael Ferreira & Anadon Advocacia Consultoria e Compliance.

31 de agosto de 2019, 8h00

Na última aula e, de maneira recorrente, nos últimos encontros, o tema da inteligência artificial “aliado” ao Direito tem sido discutido a partir de diversas notícias que parecem assombrar os alunos e muitos profissionais do Direito. Notadamente, isso é reflexo do próprio interconectado mundo tecnológico –muitas informações, muitas notícias, muitas descobertas, muitos experimentos, muitas transformações (hiperconexão)– em todas as dimensões.

A tecnologia certamente, ao menos em parte, é responsável pelo desenvolvimento civilizacional contemporâneo e o fetiche que a acompanha, por parte de quem pesquisa e desenvolve, em regra, mais do que a facilitação da vida cotidiana é a superação/substituição da racionalidade humana. Daí porque, numa reflexão mais profunda (ética) sobre onde vamos chegar e se sabemos o que lá vamos encontrar, me remete, de maneira metafórica (os filmes infantis são ótimos para isso…), ao que vou aqui chamar de fator Olaf. Olaf é um personagem de Frozen, de Walt Disney.

É um boneco de gelo, criado por Elsa e que, num aparente paradoxo, tem ele o sonho de “encontrar” o verão… Olaf, após cantarolar seu desejo… é curiosamente interpelado pelo outro personagem: Qual sua experiência com o verão?… e Olaf, todo serelepe, responde: Nenhuma?! Daí então o outro personagem, espantado com sua ingenuidade, comenta com os demais: …ele precisa saber… alguém conta para ele ou eu conto?!

Portanto, o fator Olaf é uma metáfora que, neste texto, pode orientar uma crítica ética no sentido de que a tecnologização do mundo e também do/no direito: estamos dispostos a pagar o preço de modificação/substituição da racionalidade humana e suas contingências naturais pela inteligência artificial? E, naquilo que costumamos a nos debruçar em sala de aula, o Direito está pronto para os efeitos colaterais da inteligência artificial? Aqui neste mesmo espaço (Jurisdição 4.0 e inteligência artificial exegética: os novos "códigos") já indiquei que a massa de bacharéis – os não aprovados no exame de ordem, os outros tantos que, aprovados no exame de ordem, não vivem do direito, outros, ainda, por questão de mercado ou por não terem sido aprovados em concurso, e até mesmo aqueles que o foram, seremos todos derretidos pelo desejado verão (noooo verãããão, como cantarolou Olaf…).

Tenho dúvidas ou, talvez apontamentos empíricos, para questionar se a tecnologização e nela, a inteligência artificial, é inclusiva. Noutras palavras, se essa condição pós-moderna é includente ou excludente. A provocação é própria porque existe um salto de pesquisa que precisa ser discutido: estamos a falar apenas de uma dimensão técnica não-intencional ou esse processo tecnológico (IA) requer uma reflexão sobre sua intencionalidade e o impacto na dimensão humana-social? Não são raras as afirmações (e estudos) de que a tecnologia, de um lado, acirrou o individualismo, o sectarismo, as doenças psicológicas, os conflitos humanos e ambientais, a divisão política e influenciou processos eleitorais etc., embora, também, de outro lado, facilitou o acesso a informação, reconfigurou as relações de tempo-espaço, otimizou processos produtivos e desenvolveu novas formas de comunicação. Assistam o excelente episódio do Programa Direito e Literatura mediado por Lenio Streck, com a participação de outros professores, sobre Direito e Novas Tecnologias.

Observado com o necessário cuidado, diversos desses processos, qualifiquemos eles como positivos ou negativos, em maior ou menor grau, fato é que, hoje, o debate transcende a instrumentalidade técnica e neutral da tecnologia. Não é por menos que a necessidade de desenvolvimento de “contra-tecnologias” ou “contra-intencionalidades” tem a finalidade de proteger dados, privacidade, segurança nacional, disseminação de informações falsas dentre outros tantos exemplos. Jacques Ellul[1], referia que a tecnologia estava acompanhada de determinadas técnicas racionalmente calculadas, de modo que a técnica se tornou o novo e específico meio social no qual o homem passou a existir, substituído o antigo meio social, o da natureza. Numa visão mais contemporânea, não se trata de uma crítica à ciência ou sua transcendência, mas trazer-à-luz que as tecnologias não são neutras, são influenciadas por interesses e processos públicos, como destaca, há muito, Feenberg[i] e que, por isso, podem/devem ser democraticamente construídas e controladas. Enfim, sob diversas perspectivas a técnica, a “techné” e a tecnologia no processo histórico-social foram e estão sendo discutidas (Heidegger, Marcuse, Habermas, Mundford, Ihde, Franssen, Cupani, Dusek entre outros) sob o ângulo da ética e/ou da democracia.

A partir do/no Direito, como diz Streck, a naturalização da tecnologia como racionalidade – uma espécie de existencial virtual-artificial – nos encaminha para um processo de desumanização ou dessensibilização da vida e do cotidiano. Daí porque as insatisfações muito contemporâneas com a política, a democracia e com o direito são em grande medida um recado de modificação (intencional, penso eu) do modo existencial natural da humanidade, a qual não está mais à vontade no seu habitat. Pré-ocupar-se é uma questão de sobrevivência, é da dimensão humano-cognitiva do processo (existencial).

No direito, situado nas ciências sociais, padecerão, o direito e todos os seus atores, padecerá a Constituição e suas garantias, que não combinam com a aceleração tecnologia, padecerá a sociedade de países de modernidade tardia, pois não conseguem se adaptar ao “novo-velho” meio, sem ser subservientemente dominados. Se Ministro Presidente do STF defende “desidratar” a Constituição, caminhamos mal. Ora, no direito nem bem experimentamos uma década dos prometidos “efeitos positivos do processo eletrônico” e já estamos num salto quântico em direção modificação da essência da prestação jurisdicional (jurisdição 4.0 – algorítmica) e como também da própria advocacia (Streck – Distopia: os algoritmos e o fim dos advogados: kill all the lawyers!). Como diz o Gato de Alice no país das maravilhas… quando não se sabe para aonde vai, qualquer caminho serve.

Se os softwares são mais capazes de produzir segurança jurídica e previsibilidade do que aquele (ser humano) que pensou a própria segurança jurídica e a previsibilidade como garantias democráticas é porque fracassamos. Então, se é verdade que conhecimento é poder, os novos donos do Poder, no Direito, serão os donos dos dados, como disse Streck no episódio daquele programa. Predados pela predição artificial (la bouche l'algorithme, como eu já disse noutra coluna) se revela aí o fator Olaf, da prescindibilidade da dimensão criativa e interpretativa do ser humano – típica das ciências humanas aplicadas -, um alto preço civilizacional.

 

[1] In: The Technological order: Proceedings of the Encyclopedia Britannica Conference, ed. Carl E. Stones, Wayne: Wayne Sate University Press, 1963, p. 10.

 


[i] Cf. FEENBERB, Andrew. Marcuse ou Habermas: duas críticas da tecnologia. Trad. Newton Ramos de Oliveira. Rev. Maureen Mourning. Disponível em: https://www.researchgate.net/profile/Mauricio_Chiarello/publication/314299230_Marcuse_ou_Habermas_Duas_criticas_da_tecnologia/links/58c01d64a6fdcca74cff0a7c/Marcuse-ou-Habermas-Duas-criticas-da-tecnologia.pdf Acesso em: 27 ago. 2019.

Autores

  • Brave

    é sócio do Rafael Ferreira Advocacia, Consultoria e Compliance, pós-doutor, doutor e mestre em Direito Público pela Universidade do Vale do Rio dos Sinos (Unisinos), professor da Universidade Federal do Rio Grande (Furg) e membro do Dasein – Núcleo de Estudos Hermenêuticos.

Tags:

Encontrou um erro? Avise nossa equipe!