Opinião

Inteligência artificial generativa como aliada da desinformação

Autores

  • Bruno Farage da Costa Felipe

    é professor advogado e pesquisador do Legal Grounds Institute doutorando em direito pela PUC-Rio e mestre em Direito pela Uerj.

  • Bernardo Fico

    é advogado graduado em Direito pela Universidade de São Paulo pós-graduado em Direito Digital pela Universidade Estadual do Rio de Janeiro e mestre em Direito pela Northwestern Pritzker School of Law (Chicago EUA).

15 de julho de 2023, 17h12

A IA generativa aplicada às imagens tem se tornado uma recorrência. Se nas primeiras ocasiões (como a imagem do papa Francisco usando um casaco puffer) a surpresa ocorreu pelo desconhecimento da tecnologia (poucas pessoas sabiam da possibilidade de gerar fotos realistas por meio de inteligência artificial), atualmente elas continuam a surpreender pela qualidade das imagens criadas. A fidedignidade das imagens é tamanha que a Google chegou a anunciar uma ferramenta — Google I/O — para alertar que as imagens criadas por seus modelos de IA foram geradas por um computador.

Manipulações com imagens não são novidades; remontam os primórdios da fotografia e evoluíram com a tecnologia. São inúmeros os casos de alteração digital de imagens, havendo inclusive estudos sobre como isso impacta a autoestima da população no geral. Contudo, a IA generativa tem tornado essas manipulações digitais de imagem espantosamente convincentes, permitindo a criação de imagens realistas a partir de simples comandos de texto. Essa facilidade permite que fenômenos como a desinformação ganhem força.

A desinformação por meio de texto já é conhecida e vem sendo estudada para que possa ser combatida de maneira eficaz. O apoio visual a essas iniciativas de desinformação, contudo, conferem um novo patamar de aparente credibilidade para as mensagens. Se a circulação em massa de mensagens de texto já foi relacionada a problemas informacionais graves [1], o potencial impacto desse tipo de conteúdo associado a uma imagem ainda não pode ser calculado. A desgastada máxima "uma imagem vale mais que mil palavras" ganha um novo sentido nesse contexto. Se textos "soltos" e sem âncoras de credibilidade já são capazes de abalar a confiança nas mídias e na distribuição de informações, as consequências desses mesmos textos junto de uma "foto" que os corrobora pode ser muito maior.

Uma das ferramentas utilizadas para esse tipo de criação, o Dall-e usa aprendizado de máquina e redes neurais para criar imagens a partir de descrições textuais. Recentemente a grande empresa Adobe anunciou a integração de uma ferramenta de IA generativa ao famoso programa Photoshop. A ferramenta ("Firefly"), que funciona de forma semelhante ao Dall-e, faz um preenchimento generativo das imagens, permitindo maior controle dos usuários acerca de como as imagens serão alteradas e realizando as alterações diretamente dentro do programa. Por enquanto, a atualização integrada ao Photoshop está em teste beta, com algumas restrições: não há disponibilidade para uso entre menores de 18 anos, além de limitações na China. Contudo, a Adobe estima que o Firefly será totalmente lançado ao público de forma ampla ainda no segundo semestre de 2023.

Enquanto isso, no mundo, cresce o debate acerca dos riscos da IA generativa, assim como se acelera a corrida para a regulamentação dessa tecnologia. No Brasil, temos em trâmite o Projeto de Lei n° 2.338, de 2023, de autoria do Senador Rodrigo Pacheco, o qual dispõe sobre o uso da Inteligência Artificial. Há também quem defenda, até mesmo, uma paralisação no desenvolvimento da tecnologia, enquanto a regulamentação não se concretiza [2].

O que pode ser feito, portanto, enquanto a regulamentação jurídica do uso da IA não acontece? Alguns especialistas [3] acreditam que a detecção do uso de IA é um passo intermediário importante. Se compararmos com a regulamentação — que tende a ser mais lenta — investir em tecnologias que distinguem o que foi produzido por um humano e o que foi gerado por uma IA [4] pode ser uma solução para mitigar os riscos potenciais da tecnologia enquanto a regulamentação não se concretiza. Perder a capacidade de distinguir o que foi feito por pessoas e o que foi gerado por IA implica em problemas variados: de plágios à elaboração de campanhas de desinformação. No outro lado dessa mesma moeda fica a questão: o que acontece se uma dessas ferramentas falhar e indicar que a produção de uma pessoa foi na verdade criada com inteligência artificial?

Outra discussão que acompanha essas perguntas diz respeito a quem deverá investir nessas tecnologias de detecção. Os lucros da detecção de resultados generativos provavelmente não serão comparáveis àqueles dados pelas ferramentas criativas, o que desincentivaria um investimento privado. Em alguma medida, isso já é visto em ferramentas de acesso público para detecção de IA (e.g. GPTZero), que tem uma eficácia questionável. Apesar disso, é possível que a disseminação desse tipo de tecnologia impulsione a necessidade de identificar criações de IA, de maneira similar ao que aconteceu com o crescimento da internet e o uso de vírus de computador que tornou a criação de antivírus uma tarefa necessária. Fato é que a potencialidade de danos e as ameaças exigem uma resposta e, enquanto a resposta jurídica está sendo elaborada, é necessário discutir respostas técnicas, que possam auxiliar o bom desenvolvimento da tecnologia, ajudando a mitigar riscos derivados da IA generativa como a potencialização da disseminação de desinformação nos meios de comunicação.    

 


Referências

BEYER, Jan Nicola. The race to detect AI can be won. 2023. Disponível em: https://www.politico.eu/article/artificial-intelligence-ai-detection-race-can-be-won/. Acesso em: 13 jun. 2023.

BOHANNON, Molly. Photoshop Adds AI Image Generator As Concerns Over Fake Images Rise. 2023. Disponível em: https://www.forbes.com/sites/mollybohannon/2023/05/23/photoshop-adds-ai-image-generator-as-concerns-over-fake-images-rise/?sh=ecc28ff25a46. Acesso em: 04 jun. 2023.

Future of Life. Pause Giant AI Experiments: An Open Letter. 2023. Disponível em: https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Acesso em: 18 maio 2023.

WEATHERBED, Jess. Adobe is adding AI image generator Firefly to Photoshop: generative fill will arrive in photoshop in the second half of 2023: Generative Fill will arrive in Photoshop in "the second half of 2023". 2023. Disponível em: https://www.theverge.com/2023/5/23/23734027/adobe-photoshop-generative-fill-ai-image-generator-firefly. Acesso em: 04 jun. 2023.

 


[2] Vide, por exemplo a famosa carta aberta lançada em março deste ano, denominada "Pausem Experimentos Gigantes de IA".

[3] E.g. Jan Beyer

[4]  Como DetectGPT e GPTZero para texto e AI Image Detector para recursos visuais.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!