Deepfakes, provas digitais e fraudes no INSS: colapso da confiança
28 de maio de 2025, 17h23
Imagine um vídeo de um réu confessando um crime. Ou uma selfie usada para liberar um benefício previdenciário. E se essas imagens forem falsas — mas indistinguíveis da realidade?

Esse é o impacto dos deepfakes: vídeos e áudios manipulados por inteligência artificial para simular rostos, vozes e falas reais. Em 2025, essa tecnologia está disponível em aplicativos gratuitos, acessível a qualquer usuário comum. Especialistas alertam: entramos numa era de risco epistêmico, em que até evidências aparentemente objetivas se tornam suspeitas.
O filósofo Bismarck Medeiros define esse fenômeno como “apocalipse epistêmico”: o colapso da confiança nas fontes de informação audiovisual. Um colapso que afeta diretamente o Judiciário, o INSS, o jornalismo e qualquer sistema que dependa de autenticidade para funcionar.
Quando a prova digital vira dúvida
Em 2024, a 5ª Turma do Superior Tribunal de Justiça decidiu que prints de tela e imagens digitais extraídas sem metodologia adequada não têm validade como prova. Segundo o acórdão, “é ônus do Estado comprovar a integridade e a confiabilidade das fontes de prova, inclusive quando elas tiverem natureza digital” (STJ, HC 773.074/MG).
O Judiciário tem reconhecido que provas digitais exigem cadeia de custódia formalizada e verificação técnica. Sem isso, a justiça se torna vulnerável a manipulações sofisticadas — incluindo as feitas por IA.
Direito ainda está atrasado
O Brasil ainda não possui uma tipificação penal autônoma para a criação ou uso doloso de deepfakes. O PL 2.630/2020, conhecido como Lei das Fake News, trata da responsabilidade das plataformas, mas não criminaliza diretamente a manipulação audiovisual com IA.
Já o PL 2.338/2023, que institui o marco legal da inteligência artificial, prevê classificações de risco e princípios de confiabilidade, mas ainda está em tramitação.

Enquanto isso, crimes com deepfakes são enquadrados em tipos genéricos como calúnia, falsidade ideológica ou estelionato — sem que a gravidade da simulação algorítmica seja reconhecida como conduta penal autônoma.
Fraudes no INSS: imagens reais hoje, deepfakes amanhã
No campo previdenciário, os golpes evoluem com rapidez. Criminosos já têm se passado por funcionários do INSS para visitar beneficiários em casa, coletar documentos, selfies e vídeos, alegando falsamente que se trata da “prova de vida” obrigatória (G1, 3/5/2024).
Essas visitas são golpes. O INSS não realiza visitas espontâneas para prova de vida, nem ligações para convocar beneficiários, como alertou novamente o governo em 2025 (G1/Fato ou Fake, 7/5/2025).
O objetivo dos fraudadores é capturar dados legítimos — fotos, vídeos, áudios — para desbloquear benefícios ou contratar empréstimos indevidamente. Por ora, essas fraudes envolvem imagens reais, obtidas com dolo. Mas a tendência é que essas bases de dados alimentem, em breve, deepfakes hiper-realistas.
O golpe poderá evoluir de um vídeo verdadeiro para um vídeo sintético — com rosto, voz e frase da vítima, gerados artificialmente com IA.
O que pode ser feito
Exigir cadeia de custódia digital e perícia técnica para todas as provas visuais e sonoras. Implantar duplo fator de autenticação em sistemas públicos e bancários. Promover campanhas de alerta à população sobre fraudes com coleta de imagem e voz.
Acelerar a aprovação de marcos regulatórios como os PLs 2.630 e 2.338. E, sobretudo, reconhecer no ordenamento jurídico que a falsificação algorítmica de identidade é um novo tipo penal que defendo, necessário para a era digital. Esse tipo protege a autenticidade da identidade, a fé pública e a confiança institucional. Ele criminaliza o uso de inteligência artificial para simular, com aparência real, a identidade de terceiros, para fraudes, enganos ou prejuízo.
O risco é iminente
Deepfakes deixaram de ser ficção científica. Já interferem em eleições, reputações e investigações. E agora, ameaçam um dos pilares da cidadania: a confiança em sistemas públicos de prova, justiça e previdência.
Se a prova não é mais confiável, a decisão deixa de ser justa.
E se a verdade pode ser simulada, o Direito precisa ser restaurado como realidade confiável.
Referências
ALMEIDA, Daniella. INSS alerta sobre canais oficiais de atendimento. Brasília, DF: EBC, 2025. Disponível aqui.
CÂMARA DOS DEPUTADOS. PL 2630/2020. Institui a Lei Brasileira de liberdade, responsabilidade e transparência na Internet. Disponível aqui.
G1. É #FAKE que INSS faça ligação telefônica convocando para prova de vida. [S. l.]: G1, 2025. Disponível aqui.
MEDEIROS, Bismarck Bório de. Pós-verdade e aspectos epistêmicos das mídias sociais: análises, críticas e proposições. Revista Sapere aude, Belo Horizonte, v. 14, n. 28, p. 492-522, jul./dez. 2023. Disponível aqui.
RESENDE, Thiago. INSS alerta contra golpe de visita em casa para prova de vida. Brasília, DF: TV Globo, 2025. Disponível aqui.
SENADO FEDERAL. Projeto de Lei nº 2338 de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível aqui.
SUPERIOR TRIBUNAL DE JUSTIÇA. Quinta turma não aceita como provas prints de celular extraídos sem metodologia adequada. Brasília, DF: STJ, 2024. Disponível aqui.
Referências complementares
HEYGEN. Los Angeles: HeyGen, [202-?]. Disponível aqui.
PIKA LABS. [S. l. : s. n.], [202-?]. Disponível aqui.
SYNTHESIA. Londres: Sintesya Ltd, [202-?]. Disponível aqui.
Encontrou um erro? Avise nossa equipe!