Direito Eleitoral

IA e deep fakes nas eleições: desafio da tecnologia à integridade eleitoral (parte 2)

Autores

  • Rodrigo Terra Cyrineu

    é advogado escritor professor mestre em Direito Constitucional (IDP) membro-fundador da Academia Brasileira de Direito Eleitoral e Político (Abradep) e membro da Comissão Especial de Direito Eleitoral do Conselho Federal da Ordem dos Advogados do Brasil.

  • Renato Melón

    é advogado graduado pela UFMT especialista em Direito Empresarial Tributário pela Universidade Mackenzie especialista em Aprendizado de Máquina (Stanford e Deep Learning.AI) cientista de dados credenciado pela IBM profissional de Transformação Digital pelo MIT com MicroMaster pelo MIT; especialista em Inteligência Artificial pelo programa da Saïd Business School da Universidade de Oxford e pós-graduando em Ciência de Dados pelo Instituto de Computação da UFMT.

29 de abril de 2024, 15h20

Continuação da parte 1

A regulação eleitoral da IA e as eleições de 2024

Em vista de tudo que se historiou e relatou, importa saber como o Direito Eleitoral enfrentará o tema das deepfakes nas eleições municipais que se avizinham e, assim, analisar se esse enfrentamento será satisfatório à luz de todas as nuances e complexidades próprias dessa candente temática.

De cara, importa dizer que o Congresso, a quem compete privativamente legislar sobre o Direito Eleitoral (CF, artigo 22, I), ainda não normatizou o tema.

Logo, foi o TSE, no uso de seu poder regulamentar, que se debruçou sobre o tema e estabeleceu, na Resolução n. 23.610/2.019 que trata da propaganda eleitoral, as  diretrizes normativas relacionadas à inteligência artificial no novel artigo 9-B.

É permitido, portanto, o seu uso para “criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons” (artigo 9-B, caput, Resolução 23.610/2.019-TSE), desde que o responsável pela peça de propaganda informe, “de modo explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada”.

Ademais, no parágrafo terceiro do mencionado artigo 9-B, a Corte Superior Eleitoral dispôs ainda sobre algumas formas específicas de propaganda via IA, a saber, “uso de chatbots, avatares e conteúdos sintéticos como artifício para intermediar a comunicação de campanha com pessoas naturais submete-se ao disposto no caput deste artigo, vedada qualquer simulação de interlocução com a pessoa candidata ou outra pessoa real”.

Em caso de descumprimento das vedações e ressalvas normativas, o responsável pela propaganda estará sujeito:

(i) à “imediata remoção do conteúdo ou indisponibilidade do serviço de comunicação, por iniciativa do provedor de aplicação ou determinação judicial” (artigo 9-B, parágrafo 4, Resolução 23.610/2.019-TSE);
(ii) à sanção pecuniária, sendo que neste caso é exigida a iniciativa de algum legitimado a propor representações eleitorais [1]; e
(iii) à apuração de uso indevido dos meios de comunicação social e abuso de poder, podendo acarretar cassação do registro e imposição de sanção de inelegibilidade, sem prejuíza da apuração criminal na forma do artigo 323 do Código Eleitoral, “sem prejuízo de aplicação de outras medidas cabíveis quanto à irregularidade da propaganda e à ilicitude do conteúdo”.

Vê-se, portanto, uma importante preocupação do TSE a respeito da utilização da IA nas eleições, mas não a ponto de proibi-la, como fez com as deep fakes que trataremos a seguir.

De toda sorte, reputa-se importante, antes de avançar para análise da regulamentação da deep fake, fazer algumas considerações preliminares sobre as regras relacionadas à IA.

De cara, vale lembrar que o poder de polícia em matéria de propaganda eleitoral autoriza ao juiz eleitoral agir de ofício para determinar a remoção de conteúdo ilegal. Não será nenhuma surpresa, portanto, se a própria Justiça Eleitoral, com a ajuda de seu corpo técnico especializado, tomar a iniciativa de fiscalizar e, ao constatar, determinar a retirada dessas peças contrárias aos ditames regulamentares.

Por outro lado, dada a quantidade de informações em tráfego nas plataformas digitais, não é de se esperar que façam estas, sponte própria, a remoção desses conteúdos, notadamente porque isto poderá suscitar debates sobre eventual violação à Constituição, na perspectiva da liberdade de expressão e da reserva jurisdicional, ainda que haja previsão, como já se disse, no corpo da Resolução nº 23.610/2.019-TSE.

Dito de outro modo, não parece crível que as redes sociais comprem essa briga com os usuários, ressalvadas casos flagrantes de manifesta ilegalidade.

Quanto ao mais, vale lembrar que o TSE, em benfazeja evolução jurisprudencial, fixou, no julgamento das Ações de Investigação Judicial Eleitoral 0601968-80 e 0601771-28, o entendimento de que “o uso de aplicações digitais de mensagens instantâneas, visando promover disparos em massa, contendo desinformação e inverdades em prejuízo de adversários e em benefício de candidato, pode configurar abuso de poder econômico e/ou uso indevido dos meios de comunicação social para os fins do art. 22, caput e XIV, da LC 64/90”.

Isso significa dizer que esses expedientes, levados às últimas consequências, podem comprometer todo o resto da campanha, ensejando cassações e imposições de impedimentos para a disputa em pleitos posteriores (inelegibilidade-sanção).

Proibição total da deep fake

Já a deep fake, como já adiantado, está terminantemente proibida. É o que consta textualmente no § 1º do artigo 9-C da Resolução 23.610/2.019-TSE — verbis:

É proibido o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deep fake).

Ao contrário do que aconteceu com outras situações, nas quais a proibição se volta apenas quando ocorrer propaganda eleitoral negativa, no que atine especificamente à deep fake a proibição é absoluta, ainda que para simplesmente “favorecer candidatura”, o que, a nosso ver, revela incoerência e falha sistêmica, sem contar a perda de uma oportunidade de baratear as campanhas, como adiante se explicará.

Primeiramente, e como já antecipado, nos parece incoerente e sistematicamente incongruente a vedação da propaganda eleitoral positiva mediante utilização da deep fake, na medida em que, por exemplo, a criação de imagem e voz de pessoa fictícia nada mais representaria, num contexto de boa-fé de dada campanha, do que a criação de uma simples peça de propaganda eleitoral. Isso já se observa nas animações tantas e repetidas vezes utilizadas nas campanhas eleitorais brasileiras.

Por outro lado, numa quadra em que se busca cada vez mais minorar a interferência do dinheiro nas eleições, impedir a deep fake “do bem”, permita-se assim conceitua-la, revela-se uma grande oportunidade desperdiçada de diminuir significativamente os custos e os gastos com propaganda, pois tal ferramenta tornaria despicienda a contratação de apresentadores dos programas, equipe de encenação, bem como grandes equipes de agências de publicidade, as quais podem ser substituídas por uma única pessoa capacitada em trabalhar o ferramental da “good” deep fake.

Desafios de ordem pragmática no tocante às deep fakes

Por fim, mas não menos importante, é preciso registrar, ainda que em linhas aligeiradas, algumas dificuldades de ordem prática relacionadas à temática da deep fake.

Aos advogados, considerando o estrito rito das representações eleitorais de propaganda eleitoral e direito de resposta, exigir-se-á redobrada atenção e cautela na demonstração probatória da deep fake, o que muitas das vezes exigirá colaboração de profissional qualificada da área, considerando a formação do profissional da advocacia que muito raramente deterá conhecimentos aprofundados em programação.

Aliás, ônus da prova talvez seja o maior e mais importante balizador da problemática, especialmente na perspectiva do advogado de defesa, considerando que a ritualística do artigo 96 da Lei n. 9504/1.997 praticamente anula a possibilidade de instrução, pois:

(i) o § 1º exige que o representante, ao ajuizar a representação, indique “provas, indícios e circunstâncias”, o que denota, em linha de princípio, que ônus da prova é do autor da ação;
(ii) após, o § 5º do mesmo artigo diz que “a Justiça Eleitoral notificará imediatamente o reclamado ou representado para, querendo, apresentar defesa em quarenta e oito horas”; e
(iii) por fim, § 7º exige que o Juiz Eleitoral decida e publique a decisão em 24 horas.

Como se vê, se há a exigência de decisão em um dia após a defesa, é óbvio que não há espaço para instrução, descartando-se a relevantíssima prova pericial, mesmo a simplificada, do procedimento de apuração da propaganda eleitoral irregular, o que pode tornar extremamente preocupante o tratamento da matéria nesse tipo de procedimento.

Isso tudo também já deixa evidenciada a dificuldade que o Magistrado Eleitoral terá ao analisar os pedidos, especialmente os de natureza liminar, à míngua de maiores certezas sobre a ocorrência de deep fake em cada caso judicializado.

Basta ao representante alegar que o material é falso? Como o representado se defenderá? Qual o standard probatório exigido/esperado? De quem é o ônus da comprovação da deep fake? São todas questões em aberto que os players processuais e eleitorais enfrentarão nesse pleito que se avizinha.

Conclusões

Neste cenário complexo e controverso, a própria tecnologia pode nos auxiliar com ferramentas que, ao invés de reprimi-la, aproxima-a com protocolos e procedimentos de compliance, almejando-se aproveitar os benefícios da evolução humana, administrando a eterna e imortal maldade intrínseca do ser humano – que existe muito antes das máquinas.

Assim, a utilização segura da inteligência artificial (IA) pode ser promovida através de ambientes controlados, como sandboxes, onde os algoritmos podem ser testados e aprimorados sem expor dados sensíveis ou comprometer a segurança.

Esses ambientes oferecem uma plataforma protegida para desenvolvedores experimentarem novas técnicas e modelos, garantindo que sejam implementados com segurança e ética. Além disso, a implementação de medidas de anonimização e criptografia de dados pode garantir a privacidade dos usuários, mesmo durante o treinamento de modelos de IA.

Em relação aos deep fakes e outras aplicações maliciosas da IA, é crucial que sejam desenvolvidas e aplicadas técnicas de detecção e mitigação de fraudes. A Justiça Eleitoral, por exemplo, pode investir em sistemas de detecção de deep fakes que identifiquem e removam conteúdos falsos ou manipulados das plataformas online, inclusive de forma automática, uma vez inexistindo, por exemplo, no conteúdo, um lastro criptográfico que ateste que aquela rede neural de Machine Learning, de conteúdo eleitoral, não passou pelo sandbox oficial da eleição.

Além disso, a educação e conscientização pública sobre os riscos dos deep fakes podem ajudar a combater sua disseminação e impacto. Ao mesmo tempo, é importante que essas medidas não inibam a inovação legítima da IA, que pode ser aplicada de maneira ética e benéfica em diversas áreas, como saúde, educação e segurança pública.

Assim, a busca por soluções que promovam a verdade e a segurança dos dados sem comprometer o potencial lícito dos modelos neurais é essencial para garantir o uso responsável e benéfico da IA na sociedade.

De toda sorte, as dificuldades a serem experimentadas pelos advogados, pelo Ministério Público Eleitoral e pela Justiça Eleitoral são grandes e demandarão esforço conjunto, com pensamento crítico e fora da caixa para dar conformidade a esta nova realidade eleitoral vivenciada.

Uma ideia, emprestada da Vara Especializada do Meio Ambiente de Mato Grosso, seria a possibilidade de o Juiz da Propaganda Eleitoral contar com uma equipe multidisciplinar com especialistas em programação e demais áreas de conhecimento, os quais terão o condão de dar suporte técnico especializado ao magistrado, assim como ocorre nas demandas ambientais, onde o magistrado responsável conta com essa gama de profissionais (engenheiros florestais e agrônomos, biólogos, etc) para auxiliá-lo.

_________________

Referências bibliográficas

Churchland, P. M. (1950). “Eliminative materialism and the propositional attitudes.” Mind, LIX(236), 433-453. Recuperado de https://academic.oup.com/mind/article/LIX/236/433/986238

MIT Technology Review Brasil. (s.d.). “O pioneiro em inteligência artificial, Geoff Hinton, afirma: ‘O deep learning será capaz de fazer tudo’.” Recuperado de https://mittechreview.com.br/o-pioneiro-em-inteligencia-artificial-ia-geoff-hinton-afirma-o-deep-learning-sera-capaz-de-fazer-tudo/

DataGen. (s.d.). “Convolutional Neural Networks (CNN): Uma visão geral completa.” Recuperado de https://datagen.tech/guides/computer-vision/cnn-convolutional-neural-network/

The Economist. (2019, 7 de agosto). “What is a deepfake?” Recuperado de https://www.economist.com/the-economist-explains/2019/08/07/what-is-a-deepfake

Goulart, E. (2023, 20 de dezembro). “A Lei de Inteligência Artificial da União Europeia.” Conjur. Recuperado de https://www.conjur.com.br/2023-dez-20/a-lei-de-inteligencia-artificial-da-uniao-europeia/

Massachusetts Institute of Technology. (2017, 14 de abril). “Explained: Neural networks.” MIT News. Recuperado de https://news.mit.edu/2017/explained-neural-networks-deep-learning-0414

Casalicchio, C. (2022, 21 de novembro). “Por que as GPUs são essenciais para computação.” Red Hat. Recuperado de https://developers.redhat.com/articles/2022/11/21/why-gpus-are-essential-computing

______________________

[1] Art. 9º-H A remoção de conteúdos que violem o disposto no caput do art. 9º e no caput e no § 1º do art. 9º-C não impede a aplicação da multa prevista no art. 57-D da Lei nº 9.504/1997 por decisão judicial em representação. (Incluído pela Resolução nº 23.732/2024)

Autores

  • é advogado e membro-fundador da Abradep. Mestre em Direito Constitucional pelo IDP (Instituto de Direito Público) do Distrito Federal. Especialista em Direito Administrativo pela Fundação Escola Superior do Ministério Público de Mato Grosso; especialista Direito Constitucional pela Fundação Escola Superior do MP-MT e especialista Direito Eleitoral pela Fundação Escola Superior do MP-MT; especialista em Agronegócio pela Esalq-USP.

  • é advogado graduado pela UFMT, especialista em Direito Empresarial Tributário pela Universidade Mackenzie, especialista em Aprendizado de Máquina (Stanford e Deep Learning.AI), cientista de dados credenciado pela IBM, profissional de Transformação Digital pelo MIT com MicroMaster pelo MIT; especialista em Inteligência Artificial pelo programa da Saïd Business School da Universidade de Oxford e pós-graduando em Ciência de Dados pelo Instituto de Computação da UFMT.

Encontrou um erro? Avise nossa equipe!