Mau uso da tecnologia

Operadores do Direito terão de aprender a lidar com provas "deepfakes"

Autor

5 de março de 2020, 7h47

Depois de a Justiça enfrentar a disseminação de notícias fraudulentas (fake news) que, entre outras coisas, rendeu ao TSE um “Prêmio Innovare” por seu “Projeto de Enfrentamento à Desinformação”, os operadores do Direito terão de aprender a lidar com um problema mais complexo, por seu componente tecnológico: as provas oriundas de “deepfakes”.

Para simplificar, “deepfake” se refere a vídeos fraudulentos – e também a áudios fraudulentos. “Deepfake” é uma fusão das palavras “deep learning” (aprendizagem profunda) e “fake” (fraudulento ou falsificado).

A parte da aprendizagem profunda entra na história porque os falsificadores usam essa tecnologia, facilitada pela inteligência artificial, para trocar, por exemplo, o rosto de uma pessoa, na gravação original, pelo rosto de outra pessoa que querem prejudicar. Ou a voz de uma pessoa pela de outra.

Exemplos mais frequentes nos Estados Unidos foram citados na conferência “ABA Techshow” da American Bar Association (ABA). O mais comum é o da substituição do rosto de uma atriz pornô, em um vídeo pornográfico, pelo rosto de uma ex-namorada ou ex-mulher. Quase todos os casos se encaixam na definição de pornografia de vingança.

Outro exemplo é o da troca do rosto e da voz de políticos para prejudicá-los em campanhas eleitorais ou por qualquer outro motivo. Celebridades e empresários também são vítimas costumeiras. Mas, enfim, qualquer pessoa pode ser vítima de vídeos e áudios fraudulentos.

A produção de “deepfakes” não é novidade, porque eles já estão na praça há algum tempo. Mas, o que preocupa no momento, é que os operadores de Direito não estão preparados para distinguir o que é verdadeiro do que é fraudulento — e provar. Afinal, a manipulação das provas é muito bem feita, graças à inteligência artificial.

Uma conclusão dos participantes da conferência, intitulada “Pílula vermelha vs. pílula azul: como deepfakes estão definindo a realidade digital”, foi a de que a justiça tem “um problema enorme” pela frente.

A palestrante Sharon Nelson, da empresa de tecnologia Sensei Enterprises, disse que a maioria dos vídeos fraudulentos afetam as mulheres. Elas são vítimas de 96% dos casos, segundo um relatório da empresa Deeptrace, que está desenvolvendo ferramentais para desmascarar conteúdo fraudulento. A Universidade da Califórnia em Berkeley e a Google também estão desenvolvendo ferramentas semelhantes.

Os estados de Virgínia e Califórnia já aprovaram leis contra “deepfakes”, ela disse. “Mas é preciso fazer muito mais para impedir que as imagens das pessoas sejam usadas sem consentimento”, afirmou.

A palestrante citou dois casos em que “deepfakes” foram usados com sucesso. No Reino Unido, um executivo enviou 220 mil euros a alguém que ele pensou ser o dirigente da empresa controladora. Os fraudadores usaram um áudio fraudulento para enganá-lo.

Nos EUA, um áudio fraudulento foi usado em corte, em uma disputa por guarda dos filhos. No áudio, o pai fazia ameaças à mãe. Ela havia manipulado o áudio, usando um aplicativo barato. Isso mostrou que não é preciso ser um nerd da informática para manipular áudios.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!