Opinião

Juristas e tecnologias: uma interação urgente para o bem da democracia

Autores

  • Dierle Nunes

    é professor da UFMG e da PUC-Minas. Membro honorário da Associação Iberoamericana de Direito e Inteligência Artificial. Diretor do Instituto Direito e Inteligência Artificial (Ideia). Doutor em Direito pela PUC-Minas/Universitá degli Studi di Roma "La Sapienza".

  • Ana Luiza Marques

    é advogada do Camara Rodrigues Oliveira & Nunes Advocacia (CRON Advocacia) e mestranda da Universidade Federal de Minas Gerais.

5 de dezembro de 2019, 6h02

A sociedade do século XXI é hiperconectada[1] e de tal modo modificada em relação àquela da década de 1990 que dificilmente conseguiríamos imaginar nossas vidas sem o emprego contínuo das tecnologias vinculadas à internet.

Nesse contexto, ganha cada vez mais relevância a quantidade de informação produzida, pelos usuários em uma sociedade digital, tendo em vista que os dados da rede dobram a cada ano e, somente nos anos de 2016 e 2017, foram gerados 90% da totalidade dos dados disponíveis[2]. O termo big data foi inicialmente cunhado para tratar deste crescimento exacerbado dos dados produzidos. Contudo, atualmente, ele se refere à possibilidade de se extrair padrões e/ou realizar predições, a partir de uma grande quantidade de dados, para modificar mercados, organizações, as relações entre os cidadãos e o governo[3], sem olvidar de seu emprego no exercício de profissões jurídicas.[4]

Os mecanismos utilizados para tanto são ferramentas de inteligência artificial que, por meio de algoritmos, são capazes de extrair as informações desejadas da base de dados disponível, direcionando informações para os usuários, visando prever e induzir comportamentos, para aumentar os lucros. Assim, sistemas foram criados para nos indicar quem adicionar como amigo, o que ler, ouvir, assistir ou comprar, em plataformas como o Facebook, Instagram, Spotify, Netflix, Google, Amazon e YouTube, a partir dos próprios dados que fornecemos ao utilizar estes sites e aplicativos

Por esta razão, Cathy O’Neil entende que vivemos uma economia de big data (big data economy)[5], economia baseada na utilização de dados extraídos das mídias sociais e da internet para analisar o comportamento dos seres humanos, em relação aos seus desejos, ações e poder aquisitivo, com a finalidade de realizar predições e induzir comportamentos de consumo nos usuários (numa nova dimensão da engenharia de consentimento)[6]. Os modelos matemáticos que embasam a big data economy são opacos, o que significa que as pessoas afetadas não sabem que estão sendo analisadas, tampouco têm conhecimento sobre os critérios levados em consideração pelo algoritmo para chegar a determinado resultado, de modo que é quase impossível discutir ou impugnar estes sistemas, uma vez que se desconhece o seu modo de atuação[7]. A tecnologia para análise de nossas emoções em rede[8] já é empregadas com tranquilidade para venda de produtos e em campanhas eleitorais.[9]

De forma semelhante, Shoshana Zuboff, denomina o sistema econômico vigente de capitalismo de vigilância, uma nova forma de capitalismo da informação, baseada em uma nova lógica de acumulação — de dados dos usuários, de capital e de direitos —, com o objetivo de prever e modificar o comportamento humano como forma de produzir lucros e alcançar o controle de mercado[10]. Todos os dados que produzimos (em sites que visitamos, likes do Facebook e Instagram, buscas no Google, e-mails, fotos, músicas, localização, compras, movimentos etc.) são relevantes, de forma que são adquiridos, tratados, agregados, analisados, formatados, vendidos e novamente analisados, em um ciclo orientado pelo imperativo de extração, não consentida, das informações geradas pelos usuários.

Nesse sentido, as populações passam a ser alvo da extração de dados e os indivíduos deixam de ser vistos como cidadãos e consumidores e passam a ser vistos como fornecedores de dados, ou seja, como fonte de extração de informações. Deste modo, rompe-se com a subjetividade dos usuários, criando-se padrões específicos e claros de objetificação (reificação), em um verdadeiro sequestro da experiência humana, para monetizar os dados produzidos pelos sujeitos e transformá-los em mercadoria a ser vendida para os anunciantes.

Como explica Zuboff:

A economia de vigilância baseia-se em um princípio de subordinação e hierarquia. A velha reciprocidade entre as empresas e os usuários desaparece por trás do projeto de extrair excedentes de nosso comportamento para fins concebidos por outros — vender publicidade. Nós não somos mais os sujeitos da realização do valor. Também não somos, como alguns já afirmaram, o “produto” vendido pelo Google. Somos os objetos cuja matéria é extraída, expropriada e em seguida injetada nas usinas de inteligência artificial do Google, as quais fabricam os produtos preditivos que são vendidos a clientes reais — as empresas que pagam para jogar nos novos mercados comportamentais.[11]

Não se desconhece que, há muito, a psicologia comportamental estuda como influenciar o comportamento de seres humanos, por meio de processos de enviesamento e desenviesamento cognitivos[12]. Entretanto, em um contexto de big data e de inovações tecnológicas constantes, a extração de dados e a manipulação de grupos torna-se algo muito mais sútil, eficiente e abrangente, mormente porque pode se atingir um número muito maior de pessoas e, ainda, a customização de informações (v.g. com microtargeting), que dificulta o controle em nível global[13].

Vale salientar que já existem inúmeros exemplos que evidenciam a eficiência da utilização destes sistemas para a indução e modificação de comportamentos com o propósito de monetização. Ainda em 2012, a Target desenvolveu um sistema que, com base nos produtos adquiridos pelas clientes, era capaz de indicar uma provável gravidez, bem como a data de nascimento da criança, incrementando as vendas para este público alvo e aumentando, de forma significativa, os lucros da empresa[14].

O aplicativo Pokemon Go, jogo de realidade aumentada lançado em 2016 no Brasil, buscava induzir padrões de comportamento em seus usuários, a partir da utilização de seus dados, principalmente de sua localização, ao direcioná-los para lugares próximos aos estabelecimentos de seus patrocinadores[15]. Esta também é a estratégia de negócios mantida por plataformas como Google, Facebook, Amazon e Instagram.

Estas ferramentas, contudo, não se restringem ao âmbito do consumo[16]. Com efeito, os recentes escândalos envolvendo a empresa Cambridge Analytica, nos casos do Brexit, no Reino Unido, e da eleição de Donald Trump nos Estados Unidos, evidenciaram o modo como estas novas tecnologias afetaram os resultados dos processos eleitorais, a partir da utilização de mecanismos de microtargeting, com o direcionamento de informações específicas — inclusive de informações falsas (fake news e deep fakes[17]) — selecionadas para induzir um padrão de comportamento em cada eleitor, a partir da análise de seus dados pessoais[18].

Além disso, estudiosos apontam que a customização das informações, fornecidas de forma individualizada a cada usuário das redes sociais, em conformidade com suas próprias preferências, tem ensejado uma radicalização do posicionamento dos indivíduos[19]. Isso porque as redes sociais atuam como câmaras de eco (echo chambers), refletindo apenas informações e opiniões que corroboram as preconcepções do usuário, seja porque estes optam por seguir páginas e pessoas que compartilham de sua visão de mundo(viés de confirmação), seja porque os algoritmos que selecionam as informações exibidas selecionam aquelas que tem maior chance de serem lidas/aprovadas pelo usuário.

Por este motivo, pesquisadores constatam que vivenciamos um processo de retribalização da sociedade, marcado pela fragmentação social e pela intensificação das divergências políticas, que passam a possuir características tribais de ferrenha lealdade ao que são induzidos a crer, dificultando a possibilidade de compreensão mútua por meio do diálogo e o próprio processo de deliberação inerente aos governos democráticos[20].

Todo este quadro aqui evidenciado deve conduzir a todos os cidadãos, mas, em especial, os juristas, a problematizar o emprego da tecnologia e os impactos da virada tecnológica na sociedade e no Direito.[21]

Os avanços da tecnologia só vêm gerando encantamento por força dos propagandeados impactos de eficiência e pelo fato das plataformas e redes sociais gerarem satisfação (prazer) e, cada vez, maior engajamento (chegando a quadros de vício), no entanto, quando se percebe que seus “instrumentos” viabilizam novos modos de moldar o comportamento de consumidores e cidadãos, cabe aos juristas refletir e fomentar o aprimoramento e a accountability (controle), de modo a dimensionar os riscos que seu (mau) emprego pode gerar para o Estado de Direito e as relações sociais. Fica, mais uma vez, a reflexão e o convite ao debate!

[1] World Economic Forum. The Global Information Technology Report 2012: Living in a Hyperconnected World. Disponível em: <https://www.weforum.org/reports/global-information-technology-report-2012>. Data de acesso: 28.07.2019.

[2] Informações disponíveis em: MARR, Bernard. How Much Data Do We Create Every Day? The Mind-Blowing Stats Everyone Should Read. Revista Forbes, 21.05.2018. Disponívelem: <https://www.forbes.com/sites/ bernardmarr/2018/05/21/how-much-data-do-we-create-every-day-the-mind-blowing-stats-everyone-should-read/ #3129fc6560ba>. Data de acesso: 03.06.2019.

[3] MAYER-SCHÖNBERGER, Viktor; CUKIER, Kenneth. Big Data. 2. ed. Boston/Nova York, 2014, p. 10 (livro digital).

[4] Cf. NUNES, Dierle; BAHIA, Alexandre; PEDRON, Flávio. Teoria geral do processo: com comentários da virada tecnológica no direito processual. Salvador: Jus Podivm, 2020.

[5] O´NEIL, Cathy. Weapons of Math Destruction. New York: Crown, 2016.

[6] Cf. BERNAYS, Edward. Propaganda. New york: H. Liveright, 1928. Igualmente: CURTIS, Adam. Centuryofthe self. BBC, 2002.

[7] Discutimos mais os problemas da opacidade e dos vieses algorítmicos do ponto de vista processual em: NUNES, Dierle. MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, v. 285, p. 421-447, 2018.

[8] Quando navegamos sem pensar nas mídias sociais, estamos rapidamente apresentando um fluxo de estímulos verbais a nós mesmos. Os psicólogos estudam essa questão no laboratório há décadas, mostrando aos sujeitos uma rápida sucessão de palavras, uma após a outra, em um piscar de olhos. No laboratório, as pessoas são solicitadas a encontrar uma palavra-alvo entre uma coleção de outras palavras. Quando a encontram, há um curto período de tempo em que essa palavra captura sua atenção. Se houver uma segunda palavra-alvo nessa janela, a maioria das pessoas nem a vê — quase como se tivesse piscado com os olhos abertos. GANTMAN, Ana; BRADY, William; BAVEL, Jay. Why Moral Emotions Go Viral Online: A study of Twitter demonstrates the attentional power of certain words. https://www.scientificamerican.com/article/why-moral-emotions-go-viral-online/

[9] Cf. https://www.realeyesit.com/ ou https://emotionresearchlab.com/ . SVOBODA, Elizabeth. The “neuropolitics” consultants who hack voters’ brains. MIT Technology review. Disponível em: https://goo.gl/RPQtTC

[10] ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: Public Affairs, 2019

[11] ZUBOFF, Shoshana. Um capitalismo de vigilância. Le Monde Diplomatique Brasil, 03.01.2019. Disponível em: <https://diplomatique.org.br/um-capitalismo-de-vigilancia/>.

[12] Sobre as heurísitcas e os vieses cognitivos, ver: NUNES, Dierle; LUD, Natanael; PEDRON, Flávio Quinaud. Desconfiando da imparcialidade dos sujeitos processuais: um estudo sobre os vieses cognitivos, a mitigação de seus efeitos e o debiasing. Salvador: JusPodivm, 2018.

[13] HELBING, Dirk. FREY, Brunos S. GIGERENZER, Gerd. HAFEN, Ernst. HAGNER, Michael. HOFSTETTER, Yvonne. VAN DEN HOVEN, Jeroen. ZICARI, Roberto V. ZWITTER, Andrej. Will Democracy Survive Big Data and Artificial Intelligence?. Scientific American: Fevereiro, 2017. Disponível em: <https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/>

[14] DUHIGG, Charles. How Companies Learn Your Secrets. The New York Times, 16.02.2012. Disponívelem: < https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?_r=1&hp&pagewanted=all>.

[15] Acerca do aplicativo Pokemon Go ver: <https://www.cbc.ca/news/business/pokemon-japan-launch-mcdonalds-1.3690952> e <https://www.cbc.ca/radio/thecurrent/the-current-for-february-28-2019-1.5036766/businesses-paid-to-have-pokemon-go-players-directed-to-their-locations-says-author-1.5036772>. Acesso em: 27.11.2019.

[16] Por exemplo, um estudo realizado pelo Facebook, em parceria com pesquisadores da Universidade da Califórnia, durante as eleições para o Congresso dos Estados Unidos, em 2010 constatou que mensagens exibidas pelo Facebook influenciaram diretamente o número de votantes, agregando, diretamente, 60.000 votos à eleição e, indiretamente, outros 280.000 votos. CORBYN, Zoe. Facebook experiment boosts US voter turnout. Nature, 12.09.2012. Disponívelem: <https://www.nature.com/news/facebook-experiment-boosts-us-voter-turnout-1.11401#/ref-link-1>.

[17] HAO, Karen. The biggest threat of deep fakes isn’t the deep fakes themselves. MIT Technology review. Disponível em: https://www.technologyreview.com/s/614526/the-biggest-threat-of-deepfakes-isnt-the-deepfakes-themselves/ Acesso em 10.10.2019.

[18] Para melhor compreensão dos processos eleitorais do Reino Unido e dos Estados Unidos mencionados, sugerimos o filme Brexit: The Uncivil War, produzido pela HBO, e o documentário Privacidade Hackeada, da Netflix.

[19] Pesquisas empíricas demonstram que o diálogo com pessoas que partilham de um mesmo pensamento tende a extremar o posicionamento inicial dos participantes. A propósito: SUNSTEIN, Cass R. Going to extremes: how like minds unite and divide. Nova York: Oxford University Press, 2009, p. 23.

[20] BARTLETT, Jamie. The People Vs Tech: How the internet is killing democracy (and how we save it). New York: Dutton, 2018. TUFEKCI, Zeynep. The road from Tahrir to Trump. MIT Technology review, vol. 121. n. 05, set/out 2018.

[21] Cf. NUNES, Dierle; et al. Teoria Geral do processo: com comentários da virada tecnológica no direito processual. Salvador: Podivm, 2020.

Autores

  • é sócio do Camara, Rodrigues, Oliveira & Nunes Advocacia (CRON Advocacia), doutor em Direito Processual, professor adjunto na PUC Minas e na Universidade Federal de Minas Gerais (UFMG). Membro da Comissão de Juristas que assessorou na elaboração do CPC/2015 e diretor acadêmico do Instituto de Direito e Inteligência Artificial (Ideia).

  • é advogada do Camara, Rodrigues, Oliveira & Nunes Advocacia (CRON Advocacia) e membro do Grupo de Pesquisa Processualismo Constitucional Democrático e Reformas Processuais.

Tags:

Encontrou um erro? Avise nossa equipe!