A inteligência artificial (IA) tem se mostrado uma ferramenta revolucionária, capaz de auxiliar desde atividades cotidianas até em análise de dados para descobertas científicas. Ao mesmo tempo que pode trazer grandes avanços para a sociedade, também pode ser utilizada para finalidades ilícitas, como a criação de conteúdo de pornografia infanto-juvenil.
O material de pedofilia não é nada novo na internet. A ONG americana National Center for Missing & Exploited Children (NCMEC), que visa a proteção de crianças, possui um acervo de 6,3 milhões de hashes de imagens envolvendo o abuso de crianças e adolescentes. Esses hashes são compartilhados com as big techs para a identificação de material ilícito em suas redes.O Google, por exemplo, faz um filtro de todas as imagens que circulam em seus produtos (exemplo Gmail e Google Drive) para identificar se os hashes batem com aqueles fornecidos pela NCMEC. As imagens ilícitas e os dados do usuário, então, são compartilhados com a NCMEC, que costuma acionar as autoridades competentes.
O Google também tem uma ferramenta que se utiliza de machine learning para a identificação de material de pornografia infantil novo. Quando encontrado, o material e dados de usuários são enviados para a NCMEC. Esses casos tendem a ser mais graves, pois novas imagens costumam indicar que há uma criança em risco. Assim, a ONG faz uma análise aprofundada das imagens e dos dados recebidos para auxiliar a polícia num possível resgate.
Apenas no ano de 2022, a NCMEC recebeu mais de 31,9 milhões de denúncias de material de abuso infantil, sendo mais de 611 mil advindos do Brasil. Ao todo, laborou 49 mil relatórios para polícia de casos que eram urgentes ou em que havia risco imediato a uma criança.
Além de contar com essa parceria internacional, a justiça brasileira trabalha ainda com agências nacionais e internacionais, como a Interpol e Europol, realizando o compartilhamento de informações e estabelecendo estratégias conjuntas para rastrear as origens dos materiais em questão, identificar as rotas de distribuição e prender os envolvidos em diferentes países.
Somente no ano de 2023, de janeiro até o mês de maio, foram contabilizadas 163 operações da Polícia Federal visando o combate ao abuso e à exploração sexual de crianças e adolescentes na internet. As ações policiais foram realizadas em todos os estados da federação, com o cumprimento de 255 mandados de busca e apreensão que culminaram, por fim, na identificação de 37 vítimas e na prisão de 108 indivíduos.
Ainda no Brasil, a Associação Safernet foi a primeira ONG a estabelecer uma abordagem multissetorial no ambiente digital, com a criação da Central Nacional de Denúncias de Violações contra Direitos Humanos na Internet, desenvolvendo ainda um convênio com o Ministério Público Federal para a investigação de crimes ocorridos online. Nas situações em que há a notícia de uma imagem de abuso e exploração sexual infantil, realiza-se o registro como uma violência real e o Ministério Público analisa os links.
No ano de 2023, a Safernet verificou que, por dia, há 306 denúncias de pornografia infantil na internet. Apenas nos quatro primeiros meses deste ano, houve um aumento em 70% de denúncias referentes a imagens de abuso e exploração sexual infantil em comparação ao ano passado.
O já árduo trabalho de identificação de vítimas de pedofilia se mostra ainda mais difícil com a inteligência artificial. Muitas vezes, não é fácil a diferenciação entre uma imagem totalmente gerada por IA e a imagem de uma criança ou adolescente que se encontra verdadeiramente em situação de extrema violência. Isso traz um trabalho maior às organizações que visam o combate do abuso sexual infantil, uma vez que, diante de novas imagens, terão que fazer uma filtragem para identificar se são de crianças em risco iminente ou se são de crianças inexistentes.
O maior risco é que crianças em perigo iminente demorem a ser resgatadas porque as suas imagens podem ficar perdidas em uma enxurrada de denúncias de material criado por inteligência artificial.
A OpenAI, criadora do ChatGPT, tem tomado cautela para que suas ferramentas não criem material ilícito. No entanto, ainda assim, é possível "enganar" a inteligência artificial com a utilização de termos alternativos e descrições criativas. Por exemplo, a inteligência artificial pode não aceitar o termo "sangue", mas pode criar algo a partir dos termos "água vermelha".
Uma das ferramentas mais conhecidas para a produção de conteúdo de pedofilia é a Stable Diffusion, da Stability AI. É uma ferramenta de código aberto para a criação de imagens a partir de textos que, quando lançada, não possuía filtros para evitar a criação dessas imagens. Apesar de já ter sofrido modificações para que não produza material ilícito ou imoral, muitas pessoas ainda têm o código original e continuam a criar material ilegal.
Assim, nasce a necessidade de investimento em novas tecnologias para que o sistema possa identificar as imagens falsas criadas por IA. Também se mostra premente se estabelecer com as empresas de tecnologia uma forma fácil de identificar e rastrear imagens criadas com IA, por exemplo, com o uso de marca d'água. Não seria necessária a criação de um novo crime, pois o ECA (Estatuto da Criança e do Adolescente) já pune com pena de reclusão de um a três anos e multa a simulação de pornografia infantil por qualquer forma de representação visual.