Como a IA produz violência psicológica contra mulher: Lei 15.123/2025
2 de maio de 2025, 13h18
Considere um fotógrafo fantasma e mágico que não precisa de câmeras tradicionais nem de estúdios reais para reproduzir pessoas como se fosse uma fotografia. Com suas habilidades mágicas, sem ser notado, atravessa paredes, invade espaços privados e captura imagens que nunca existiram, mas que diante do grau de realismo, aparentam ser verdadeiras (dados sintéticos, modelagem de cenários comprometedores, exposição corporal, retorques nas feições do rosto com precisão assustadora).

Embora a descrição seja um exercício hipotético, a atual capacidade de criação de imagens realísticas por modelos de inteligência artificial autoriza a equivalência metafórica. Por mais que você acredite conseguir distinguir uma fotografia real de uma sintética, tenho más notícias. Ainda que você consiga distinguir, as possíveis consequências para a pessoa representada podem ser avassaladoras e, muitas vezes, trágicas. Este artigo discute a relevância das imagens criadas por inteligência artificial no contexto penal, analisando suas implicações técnicas, jurídicas e sociais, orientado pela proteção às vítimas.
A Lei 15.123/2025 incluiu o agravamento da pena se a violência psicológica contra a mulher é cometida com o uso de inteligência artificial:
“Violência psicológica contra a mulher
“Art. 147-B. Causar dano emocional à mulher que a prejudique e perturbe seu pleno desenvolvimento ou que vise a degradar ou a controlar suas ações, comportamentos, crenças e decisões, mediante ameaça, constrangimento, humilhação, manipulação, isolamento, chantagem, ridicularização, limitação do direito de ir e vir ou qualquer outro meio que cause prejuízo à sua saúde psicológica e autodeterminação:
“Pena – reclusão, de 6 (seis) meses a 2 (dois) anos, e multa, se a conduta não constitui crime mais grave.
“Parágrafo único. A pena é aumentada de metade se o crime é cometido mediante uso de inteligência artificial ou de qualquer outro recurso tecnológico que altere imagem ou som da vítima. (incluído pela Lei nº 15.123, de 2025)
A nova lei aumenta a pena em 50% quando o crime envolve IA ou tecnologias que alterem imagem ou voz, reconhecendo o potencial agravado de dano. A legislação adapta o direito penal a crimes emergentes, como manipulações psicológicas facilitadas por ferramentas de IA incluindo deepfakes e outras formas de mídia sintética. Por exemplo, um deepfake pornográfico pode causar humilhação pública, isolamento social e traumas psicológicos profundos, amplificados pela viralização nas redes sociais.
A produção de imagens por IA, como deepfakes, baseia-se em redes neurais artificiais (modelos de aprendizado profundo: deep learning), especialmente as Redes Adversárias Generativas (GANs) que operam por meio de duas redes: uma geradora (cria a imagem) e uma discriminadora (avalia a autenticidade), treinadas com grandes conjuntos de dados visuais e capazes de gerar imagens ou vídeos hiper-realistas (manipulando de corpo, rosto, feições, voz e cenário).
No contexto da violência psicológica, a IA pode ser usada para: a) Deepfakes: Criação de vídeos falsos que mostram a vítima em situações humilhantes, vexatórias, constrangedoras e sexuais (pornografia fake ou não consensual); b) Manipulação de voz: Alteração de áudios para simular falas comprometedoras; e, c) Imagens sintéticas: Geração de fotos falsas que retratam a vítima em contextos inexistentes.
Dentre os riscos associados pode-se listar: a) Dano psicológico: A exposição a conteúdos falsos pode levar a depressão, ansiedade ou até suicídio; b) Perda da confiança: Deepfakes minam a credibilidade de imagens e vídeos, dificultando a distinção entre realidade e ficção; c) Facilidade de acesso: Ferramentas de IA estão amplamente disponíveis, permitindo que até amadores cometam crimes sofisticados; e, d) Desafios probatórios: A identificação da autoria e da autenticidade do conteúdo exige perícias técnicas complexas, em geral, indisponíveis de modo imediato.
No entanto, a aplicação da Lei 15.123/2025 exige que profissionais do direito desenvolvam competências técnicas e normativas aptas à compreensão do funcionamento da produção de imagens por meio de IA, especialmente a detecção de deepfakes para o fim de proporcional a devida diligência protetiva às vítimas. Além disso, os órgãos públicos devem ser providos de ferramentas e instrumentos tecnológicos que possam implementar a rede de proteção.
O desconhecimento dos agentes públicos associado à ausência de ferramentas adequadas (softwares) são causas da ineficácia da proteção, impondo-se treinamento, atualização normativa e disponibilidade de meios tecnológicos. Além disso, a interpretação do tipo penal de violência psicológica demanda sensibilidade às nuances do dano emocional causado por manipulações digitais, a partir do protocolo de para julgamento com perspectiva de gênero editado pelo CNJ. Sem conhecimento mínimo, há risco de decisões judiciais inconsistentes ou de subestimação do impacto psicológico nas vítimas, mantendo-se o estado de violência.
A Lei nº 15.123/2025 é um passo relevante no enfrentamento dos desafios tecnológicos no âmbito da violência psicológica mediada por IA, com o risco concreto de ineficácia caso os agentes públicos não sejam capacitados, nem disponham de ferramentas adequadas de detecção e resposta imediata ao uso oportunista da IA em crimes de violência psicológica contra mulheres. Assim como precisamos de lentes especiais para detectar os truques do fotógrafo fantasma, o sistema jurídico deve contar com ferramentas e conhecimento técnico para desvendar suas ilusões, com a superação do desconhecimento, para assegurar a devida proteção às vítimas de criações realistas, mas enganosas.
Encontrou um erro? Avise nossa equipe!