Opinião

2024 pode marcar o início de uma nova era para as democracias

Autores

24 de dezembro de 2023, 7h09

Hoje, no Brasil e no mundo, o Tribunal Superior Eleitoral está na vanguarda do combate à desinformação, com normas e comandos decisórios robustos, definindo as regras do jogo democrático para os candidatos na era digital. Assim, lembre-se da decisão do TSE que equiparou as redes digitais aos meios tradicionais de comunicação, o que foi essencial para responsabilizar candidatos infratores informacionais. E a Resolução TSE nº 23.714, de 2022, a determinar prazos e modelos adaptados à velocidade do novo cenário digital. Mas, fora de sua esfera, é preciso avançar nas discussões sobre o espaço virtual, responsabilidades das plataformas digitais e dos usuários na moderação e disseminação de conteúdos nocivos para a democracia.

Um importante passo — e um excelente exemplo — foi dado recentemente pelo governo norte-americano, que emitiu uma Ordem Executiva sobre Inteligência Artificial (IA). O mote é a “inovação responsável”, segura e confiável. Ademais, essa norma reorienta o desenvolvimento de inteligência artificial, de maneira que a inovação ocorra em prol da população norte-americana. O slogan, aqui, é Make AI Work for the American People. Considerando que a sede das maiores plataformas digitais globais, principais empresas capazes de fazer avançar a IA, é justamente os Estados Unidos, o impacto dessa normativa deve alcançar uma dimensão estratégica em nível planetário. Durante o lançamento da medida, o próprio presidente Joe Biden fez, aliás, uma breve menção às deepfakes, por ter assistido a um vídeo falso em que ele mesmo aparece dizendo coisas que nunca disse.

Divulgação

Nos últimos anos, as novas tecnologias, especialmente as diversas modalidades de inteligência artificial, deram um salto quantitativo e qualitativo com pouquíssima ou nenhuma regulamentação jurídica pró-sociedade. De outra parte, democracias passaram por abalos significativos, de difícil recomposição diante da cisão radical entre grupos no espaço público, especialmente porque essa divisão acaba sendo perpetuada e constantemente reforçada pelo modelo de funcionamento das principais plataformas digitais. Via algoritmos, as redes mundiais privilegiam a segmentação dos usuários por meio do suposto perfil de cada um, agrupando-os em conformidade com esses dados, embora seja comum assumir que estaríamos todos conectados a uma mesma aldeia global.

O lançamento do ChatGPT 3.5 pela OpenAI trouxe mais um novo paradigma tecnológico a empurrar as relações sociais para um novo patamar de dificuldades. Apesar de ser comprovado que essa plataforma pode gerar informações falsas, ela já conta com adesão massiva da sociedade. A própria OpenAI possui a DALL-E, uma ferramenta text-to-image, que cria imagens e vídeos “realistas” com base em linguagem natural inseria pelo interessado.

Outro exemplo é a HeyGen, uma ferramenta que adapta o input textual do interessado ao padrão do movimento labial do alvo (um político, por exemplo) e gera um vídeo que pode ser bastante preciso e convincente.

Esse tipo de IA generativa pode servir às deepfakes, com a alteração maliciosa de vídeos ou áudios. Há exemplos de manipulação de rostos de pessoas em corpos nus, em situações constrangedoras ou violentas, que no campo eleitoral podem se traduzir em violência política de gênero. Por tal motivo, diversas pesquisas de universidades públicas pelo mundo, em estágios já avançados, estão criando ferramentas capazes de identificar com acurácia a adulteração de vídeos, de maneira a também permitir a difusão destes novos instrumentos tecnológicos para a defesa da sociedade.

Entretanto, quando um vídeo viraliza, é difícil reverter seus impactos, fragilizando a liberdade democrática, a concorrência sadia entre candidatos e influenciando de forma definitiva a opinião pública. A eficácia das redes é praticamente instantânea. Portanto, o mau uso do poder tecnológico pode determinar os rumos da democracia, decidir eleições e induzir a coletividade a grandes equívocos. Por isso há propostas para que os vídeos baseados em IA generativa sejam etiquetados, indicando tratar-se de um vídeo “construído”, logo, “falso”. É um primeiro passo para mitigar os riscos. Esse tipo de medida, porém, não afastará totalmente os perigos no uso livre e disseminado de IA. Outra proposta, menos factível no atual estágio, é a de que a própria IA não seja lançada ao mercado consumidor sem um estudo de seus riscos sistêmicos para a humanidade e para a democracia.

Recentemente, o TikTok atualizou suas diretrizes para proibir mídias sintéticas (que são os vídeos gerados ou modificados por IA) em algumas hipóteses. Trata-se do que chamamos de autorregulação, que, embora bem-vinda, não oferece a mesma segurança jurídica de um direito uniforme para todos e no interesse de todos, que não dependa apenas de uma bondade voluntariosa e volátil de cada plataforma digital.

O próximo ano pode marcar o início de uma nova era para as democracias. A inteligência artificial terá uma abrangência até então não experimentada, porque, enfim, a IA é uma realidade e se popularizou. Precisamos estar preparados.

*artigo publicado originalmente em O Estado de S.Paulo

Autores

  • é ministro do Supremo Tribunal Federal e professor livre-docente em Direito Constitucional pela USP e pelo Mackenzie.

  • é professor titular da Cadeira de Direito Econômico e Economia Política da Faculdade de Direito da Universidade de São Paulo (FDUSP). Livre-Docente em Direito pela USP. Doutor em Direito pela PUC-SP (2000). Mestre em Direito pela PUC-SP (1998). Bacharel em Direito pela PUC-SP (1994). Foi Professor Visitante da Universidade de Glasgow, Escócia (2019) e da Universidade de Bologna, Itália (2012). Foi professor permanente no doutorado em Direito Público da Universidade de Bari, Itália (2008-2010). Foi visiting foreign professor na Fordham University, Nova York (2008). Foi Visiting Research Scholar na Cardozo School of Law, Nova York). Professor no doutorado e mestrado em Direito da PUC-SP desde 2002. Ministro do Tribunal Superior Eleitoral (2022).

Encontrou um erro? Avise nossa equipe!