Nova cara da mentira

Justiça dos Estados Unidos enfrenta um novo fenômeno: a 'defesa deepfake'

Autor

13 de maio de 2023, 10h26

A juíza Evette Pennypacker, da Califórnia, ordenou um depoimento do CEO da Tesla, Elon Musk, antes de um julgamento marcado para 31 de julho. Musk terá de declarar, sob juramento, que não disse o que disse em uma entrevista gravada em vídeo, em 2016.

Divulgação/CIAPJ-FGV
Juíza da Califórnia recusou-se a
aceitar a tese da 'defesa deepfake'
Divulgação/CIAPJ-FGV

Nessa entrevista, publicada no YouTube, ele afirmou: "O Modelo S e o Modelo X (do carro autônomo da Tesla), a esse ponto, podem ser dirigidos autonomamente com maior segurança do que por uma pessoa". 

Em março de 2018, Walter Huang, de Foster City, Califórnia, morreu quando seu Tesla Modelo X se chocou com a ponta desprotegida de uma barreira de concreto que separa as pistas de uma rodovia. O sistema de piloto automático e o sistema de navegação teriam falhado. Eles não teriam detectado a barreira de concreto, nem brecado.

A viúva e familiares de Huang processaram Musk por wrongful death — morte que gera responsabilidade civil. A ação busca responsabilizar Musk por ter garantido, na entrevista, que o carro autônomo da Tesla é mais seguro do que o dirigido por uma pessoa.

Defesa deepfake
Os advogados de Musk contestaram as alegações dos autores da ação com uma nova estratégia, que está preocupando não só os juízes, mas toda a comunidade jurídica dos Estados Unidos: a já chamada "defesa deepfake" (deepfake defense).

Esse é um novo tipo de defesa que consiste em alegar que um vídeo (ou um áudio) real é falsificado, porque teria sido adulterado com a tecnologia de deepfake, que é viabilizada com o uso de inteligência artificial (IA).

"Musk, como qualquer figura pública, está sujeito a muitos deepfakes, tanto de vídeos como de gravações de áudio, com o propósito de mostrar que ele disse ou fez coisas que ele nunca disse ou fez", diz a petição dos advogados de Musk.

Eles alegaram que, graças aos avanços em inteligência artificial, está mais fácil do que nunca criar imagens e vídeos de coisas que não existem ou de eventos que nunca aconteceram. A falsificação digital está sendo usada para espalhar desinformação e propaganda, personificar celebridades e políticos, manipular eleições e aplicar golpes, disseram eles.

Esses argumentos não convenceram a juíza. Ao contrário, eles são profundamente preocupantes, ela escreveu.

"A posição é de que, pelo fato de Musk ser famoso e ser um alvo de deepfakes, suas declarações públicas são imunes. Em outras palavras, Musk e outros em sua posição podem simplesmente dizer o que quiserem no domínio público, depois evitar responsabilidade com o argumento de que foram vítimas de deepfake. Esta corte não quer estabelecer um precedente por tolerar essa abordagem da Tesla".

Esse não é o primeiro caso. No julgamento de dois invasores do Congresso em 6 de janeiro de 2021, entre os quais o do réu considerado o "líder insurrecionista", Guy Reffitt, seus advogados alegaram que os vídeos usados na investigação podem ter sido criados ou manipulados por inteligência artificial. 

Ética profissional
Hany Farid, especialista em perícia forense digital e professor da Universidade da Califórnia, concorda que há um novo fenômeno preocupante: "À medida que esse tipo de tecnologia se tornar mais prevalente, ficará fácil alegar que qualquer coisa é falsificada".

A pesquisadora da Universidade de Stanford Riana Pfefferkorn advertiu sobre os possíveis impactos dos deepfakes nas cortes, em um artigo publicado em 2020. Nessa publicação, ela afirma que a ameaça de deepfakes serem apresentados em corte como provas é real.

"A justiça vem desenvolvendo há anos uma resistência contra o oferecimento de provas falsas ou adulteradas, desde a falsificação de assinaturas em um documento escrito à mão, datilografado ou mimeografado, ao uso do photoshop para modificar imagens e à edição de filmes e vídeos", escreveu ela.

A pesquisadora acredita que, com a proliferação da tecnologia de IA, as cortes terão, mais que nunca, de confrontar provas falsificadas com provas reais, que forem oferecidas em julgamentos.

"Nesse caso, as regras de ética e outras normas profissionais que governam os advogados devem ser aplicadas."

Para especialistas, a "defesa deepfake" é um novo desafio para o procedimento contraditório e para a função de buscar a verdade. A existência de deepfakes possibilita aos advogados oferecer argumentos e provas para explorar preconceitos e possível ceticismo de jurados. Advogados podem plantar dúvidas em suas mentes, para que questionem a autenticidade de imagens e áudios digitais.

Até o momento, não existem regras de procedimento, ética ou precedente legal que se refiram diretamente à apresentação de deepfakes em corte.

As regras atuais oferecem pouca orientação sobre o uso de deepfakes porque elas foram elaboradas antes da existência dessa tecnologia. Assim, somente as regras de ética profissional podem impedir os advogados de usá-la.

Outro fenômeno é que o uso de deepfakes vai elevar substancialmente os custos para as partes. Se um advogado (ou promotor) tiver de convencer o júri que as provas são verdadeiras — e não deepfakes —, poderá ter de contratar um perito. Uma parte sem muitos recursos financeiros não poderá fazê-lo. Com informações da NPR (National Public Radio), The Guardian e do site da SSRN (Social Science Research Network).

Autores

Tags:

Encontrou um erro? Avise nossa equipe!