Opinião

Oscar 2024: vitória da indústria do entretenimento foi na regulação da IA

Autor

19 de março de 2024, 6h30

Semana passada, foram revelados os vencedores do Oscar, mas o que as vitórias da indústria do entretenimento sobre o uso de inteligência artificial (IA) nas produções de Hollywood nos ensina é que antigos mecanismos, como a negociação de classes, ainda regulam o mundo digital.

A IA se tornou uma ferramenta cada vez mais presente nos bastidores de Hollywood, e os estúdios a têm explorado de maneiras diversas, seja para reviver estrelas do cinema falecidas ou até gerar figurantes por computador para otimizar as cenas de batalha.

Recentemente, os sindicatos que representam os profissionais do setor, como o Sindicato dos Roteiristas da América (WGA) e o Sindicato de Atores de Hollywood (SAG-Aftra), protagonizaram greves que ecoaram pelos estúdios e duraram meses. As demandas dos sindicatos foram diversas, desde salários mais altos até a segurança no uso da IA generativa.

Os acordos alcançados ao final das greves foram significativos. O WGA conseguiu estabelecer termos reconhecendo que a IA não pode ser considerada uma escritora, garantindo aos roteiristas o direito de usar assistência de IA, mas não sendo obrigados a isso, exigindo que as empresas informem os roteiristas sobre seu uso.

Por sua vez, o SAG-Aftra assegurou não apenas aumentos salariais, mas também estabeleceu barreiras ao uso da IA pelos estúdios. Os atores terão o direito de consentir previamente para o uso de suas réplicas digitais e receber compensações adequadas quando suas imagens forem utilizadas de forma sintética.

A luta e as vitórias do setor do entretenimento mostram que, se a IA exige que o universo regulatório passe por reformas para melhor atender, até lá é necessário continuar funcionando normalmente. E outros institutos conhecidos dos juristas, para além das negociações sindicais, já estão sendo utilizados para isso. Entre eles, Ronaldo Lemos aposta nos direitos autorais e na proteção de dados pessoais.

Processos por uso de inteligência artificial

Nessa direção, recentemente, uma série de processos legais tem chamado a atenção para as crescentes preocupações em relação aos direitos autorais da classe de escritores em relação ao uso de IA.

Escritores e figuras literárias proeminentes, incluindo nomes como John Grisham, George R.R. Martin e Silvia Day, entraram com ações judiciais contra a OpenAI, acusando-a de violação de direitos autorais ao utilizar suas obras para treinar modelos de linguagem, como o ChatGPT.

Paralelamente, autores de não ficção também estão processando a OpenAI e a Microsoft pelo uso não autorizado de seus materiais em chatbots de IA. Segundo a petição, o próprio ChatGPT confirmou que o livro de Julian Sancton, autor best-seller do New York Times e um dos autores da ação judicial, foi incluído no conjunto de dados usado para treinar o chatbot.

O New York Times, por sua vez, iniciou um processo semelhante, alegando na petição que as empresas estavam competindo diretamente com seu conteúdo após construir seus sistemas para reproduzir e resumir os artigos do jornal sem observância, contudo, dos direitos autorais.

Schwarzenegger e DeVito no Oscar 2024

Outros casos, como o da autora Sarah Silverman em face da OpenAi e da Meta, destacam a preocupação com a aquisição ilegal de conjuntos de dados para treinamento de IA. Silverman alega que a OpenAI e a Meta treinaram seus chatbots em obras adquiridas de forma ilegal de sites como Bibliotik, Library Genesis e Z-Library, sem seu consentimento.

Na petição do processo contra a OpenAi, os autores buscam provar que o ChatGPT consegue sumarizar as suas obras, o que violaria os direitos autorais. O caso já possui uma primeira decisão inadmitindo parte da inicial.

Para além dos escritores, na indústria musical, os direitos autorais são motivo de preocupação em negociações com empresas que usam inteligência artificial. A Universal retirou seu catálogo do TikTok devido ao volume e ao incentivo da plataforma à criação de música por IA.

A empresa também abriu processos contra a Anthropic por distribuir letras protegidas por direitos autorais usando IA, bem como teve sucesso em remover músicas “do Drake” geradas por IA em razão da violação de direitos autorais.

Ainda no âmbito dos criadores de conteúdo, a Getty Images anunciou que iniciaria um processo contra a Stability IA no Tribunal Superior de Justiça em Londres, alegando violação de direitos autorais de milhões de imagens utilizadas para treinamento da IA. Para eles, a companhia teria usado o conteúdo sem licença para benefício próprio, ignorando opções legais de licenciamento.

No mesmo caminho, os artistas Sarah Andersen, Kelly McKernan e Karla Ortiz  iniciaram processo em face da Stability AI, a Midjourney e a plataforma DeviantArt por usar cinco bilhões de imagens da web sem consentimento para treinar suas ferramentas de IA, violando direitos autorais.

Dados pessoais também usados em IA

No entanto, não são apenas os direitos autorais que podem ser utilizados quando pensamos em como treinar IA. Os próprios dados pessoais podem ser usados para isso. Portanto, a legislação que os protege também pode ser trazida à tona para impor limite à tecnologia, o que também já está sendo testado nos tribunais.

A Clarkson Law Firm ajuizou, em nome de impetrantes não identificados, um processo contra a Open AI, alegando roubo de informações pessoais para treinar seus modelos de IA. A petição, com mais de 150 páginas, detalha essas acusações.

Usando argumentos semelhantes, o mesmo escritório de advocacia moveu uma ação coletiva contra a Google, sua controladora Alphabet, e sua subsidiária de IA, DeepMind, em um tribunal federal da Califórnia.

Também preocupada com a privacidade dos dados dos usuários, a Itália chegou a bloquear o acesso ao chatbot de IA, ChatGPT. Após ajustes para cumprir as condições de privacidade de dados, o chatbot foi novamente disponibilizado, permitindo que os usuários optem, por exemplo, por desativar a utilização de suas conversas para treinar os algoritmos do ChatGPT.

O que todos esses casos mostram, então, é que mecanismos jurídicos tradicionais já estão sendo utilizados pelos juristas para impor limites ao uso da IA. Não obstante, diversas são as discussões legislativas sobre novas regulações específicas.

Ainda essa semana, a União Europeia aprovou o seu marco legal regulando a inteligência artificial (AI Act), com 523 votos a favor, 46 contra e 49 abstenções. A regulamentação estabelece obrigações para a IA com base em seus potenciais riscos e nível de impacto. Quanto maior o risco, mais rígidas são as regras.

No caso brasileiro, alguns projetos estão em discussão no legislativo. Na Câmara dos Deputados, o PL 21/2020 é um marco minimalista que introduziria fundamentos, princípios e diretrizes sobre o uso da IA.  No Senado, por sua vez, está em discussão o PL 2338/2023, que assimila a lógica de risco pensada pela União Europeia.

Projetos de leis mais específicos, no entanto, tramitam para regulação da tecnologia de forma mais setorial.  Pensando em limitações para determinados segmentos profissionais, o PL 266/2024 traz parâmetros específicos para o uso da tecnologia para médicos e advogados e juízes.

O PL 3592/23, por sua vez, estabelece diretrizes para o uso de imagens e áudios de pessoas falecidas por meio de IA, apontando como justificativa a campanha publicitária da Volkswagen que recriou a imagem da cantora Elis Regina, falecida em 1982.

Assim, se diversas proposições legislativas que abordam o uso de sistemas de IA no país aguardam os tramites, até lá, é necessário seguir dando respostas com as ferramentas que temos.

O esforço agora, então, é identificar o que são “vinhos velhos em garrafas novas” e como antigos conhecidos dos juristas, como a negociação de classe, os direitos autorais e de proteção de dados pessoais, podem ser aplicados para impor limite ao uso impróprio da tecnologia.

Autores

Encontrou um erro? Avise nossa equipe!