Opinião

Deepfakes, provas digitais e fraudes no INSS: colapso da confiança

Autor

  • é advogada e jornalista. Doutoranda na Faculdade de Direito do Recife (UFPE). Membra da comissão especial de proteção de dados OAB Nacional. Pesquisadora laboratório de inteligência artificial do Cedis/IDP. Especialista em privacidade e proteção de dados inteligência artificial e ciência de dados.

    Ver todos os posts

28 de maio de 2025, 17h23

Imagine um vídeo de um réu confessando um crime. Ou uma selfie usada para liberar um benefício previdenciário. E se essas imagens forem falsas — mas indistinguíveis da realidade?

Rafa Neddermeyer/Agência Brasil

Esse é o impacto dos deepfakes: vídeos e áudios manipulados por inteligência artificial para simular rostos, vozes e falas reais. Em 2025, essa tecnologia está disponível em aplicativos gratuitos, acessível a qualquer usuário comum. Especialistas alertam: entramos numa era de risco epistêmico, em que até evidências aparentemente objetivas se tornam suspeitas.

O filósofo Bismarck Medeiros define esse fenômeno como “apocalipse epistêmico”: o colapso da confiança nas fontes de informação audiovisual. Um colapso que afeta diretamente o Judiciário, o INSS, o jornalismo e qualquer sistema que dependa de autenticidade para funcionar.

Quando a prova digital vira dúvida

Em 2024, a 5ª Turma do Superior Tribunal de Justiça decidiu que prints de tela e imagens digitais extraídas sem metodologia adequada não têm validade como prova. Segundo o acórdão, “é ônus do Estado comprovar a integridade e a confiabilidade das fontes de prova, inclusive quando elas tiverem natureza digital” (STJ, HC 773.074/MG).

O Judiciário tem reconhecido que provas digitais exigem cadeia de custódia formalizada e verificação técnica. Sem isso, a justiça se torna vulnerável a manipulações sofisticadas — incluindo as feitas por IA.

Direito ainda está atrasado

O Brasil ainda não possui uma tipificação penal autônoma para a criação ou uso doloso de deepfakes. O PL 2.630/2020, conhecido como Lei das Fake News, trata da responsabilidade das plataformas, mas não criminaliza diretamente a manipulação audiovisual com IA.

Já o PL 2.338/2023, que institui o marco legal da inteligência artificial, prevê classificações de risco e princípios de confiabilidade, mas ainda está em tramitação.

Spacca

Enquanto isso, crimes com deepfakes são enquadrados em tipos genéricos como calúnia, falsidade ideológica ou estelionato — sem que a gravidade da simulação algorítmica seja reconhecida como conduta penal autônoma.

Fraudes no INSS: imagens reais hoje, deepfakes amanhã

No campo previdenciário, os golpes evoluem com rapidez. Criminosos já têm se passado por funcionários do INSS para visitar beneficiários em casa, coletar documentos, selfies e vídeos, alegando falsamente que se trata da “prova de vida” obrigatória (G1, 3/5/2024).

Essas visitas são golpes. O INSS não realiza visitas espontâneas para prova de vida, nem ligações para convocar beneficiários, como alertou novamente o governo em 2025 (G1/Fato ou Fake, 7/5/2025).

O objetivo dos fraudadores é capturar dados legítimos — fotos, vídeos, áudios — para desbloquear benefícios ou contratar empréstimos indevidamente. Por ora, essas fraudes envolvem imagens reais, obtidas com dolo. Mas a tendência é que essas bases de dados alimentem, em breve, deepfakes hiper-realistas.

O golpe poderá evoluir de um vídeo verdadeiro para um vídeo sintético — com rosto, voz e frase da vítima, gerados artificialmente com IA.

O que pode ser feito

Exigir cadeia de custódia digital e perícia técnica para todas as provas visuais e sonoras. Implantar duplo fator de autenticação em sistemas públicos e bancários. Promover campanhas de alerta à população sobre fraudes com coleta de imagem e voz.

Acelerar a aprovação de marcos regulatórios como os PLs 2.630 e 2.338. E, sobretudo, reconhecer no ordenamento jurídico que a falsificação algorítmica de identidade é um novo tipo penal que defendo, necessário para a era digital. Esse tipo protege a autenticidade da identidade, a fé pública e a confiança institucional. Ele criminaliza o uso de inteligência artificial para simular, com aparência real, a identidade de terceiros, para fraudes, enganos ou prejuízo.

O risco é iminente

Deepfakes deixaram de ser ficção científica. Já interferem em eleições, reputações e investigações. E agora, ameaçam um dos pilares da cidadania: a confiança em sistemas públicos de prova, justiça e previdência.

Se a prova não é mais confiável, a decisão deixa de ser justa.

E se a verdade pode ser simulada, o Direito precisa ser restaurado como realidade confiável.

 


Referências

ALMEIDA, Daniella. INSS alerta sobre canais oficiais de atendimento. Brasília, DF: EBC, 2025. Disponível aqui.

CÂMARA DOS DEPUTADOS. PL 2630/2020. Institui a Lei Brasileira de liberdade, responsabilidade e transparência na Internet. Disponível aqui.

G1. É #FAKE que INSS faça ligação telefônica convocando para prova de vida. [S. l.]: G1, 2025. Disponível aqui.

MEDEIROS, Bismarck Bório de. Pós-verdade e aspectos epistêmicos das mídias sociais: análises, críticas e proposições. Revista Sapere aude, Belo Horizonte, v. 14, n. 28, p. 492-522, jul./dez. 2023. Disponível aqui.

RESENDE, Thiago. INSS alerta contra golpe de visita em casa para prova de vida. Brasília, DF: TV Globo, 2025. Disponível aqui.

SENADO FEDERAL. Projeto de Lei nº 2338 de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível aqui.

SUPERIOR TRIBUNAL DE JUSTIÇA. Quinta turma não aceita como provas prints de celular extraídos sem metodologia adequada. Brasília, DF: STJ, 2024. Disponível aqui.

 

Referências complementares

HEYGEN. Los Angeles: HeyGen, [202-?]. Disponível aqui.

PIKA LABS. [S. l. : s. n.], [202-?]. Disponível aqui.

SYNTHESIA. Londres: Sintesya Ltd, [202-?]. Disponível aqui.

Autores

  • é advogada, doutoranda UFPE, professora, palestrante e pesquisadora em Direito Digital, Inteligência Artificial LIA e Ética Aplicada.

Encontrou um erro? Avise nossa equipe!