Direito Digital

IAs generativas e direitos autorais: o que você precisa saber

Autor

  • Ana Catarina de Alencar

    é pesquisadora do Legal Grounds Institute mestre em Teoria e Filosofia do Direito pela Universidade Federal de Santa Catarina (UFSC) especialista em Direito Digital Contratos e Compliance pesquisadora do Instituto Legal Grounds (LGPD) advogada no departamento de Mídia Tecnologia e Entretenimento da Opice Blum Bruno e Vainzof Advogados editora-chefe e coordenadora da Revista Eletrônica da OAB-Joinville autora do livro Inteligência Artificial Ética e Direito (Editora SaraivaJur 2022) e professora em cursos de graduação e pós-graduação em Direito.

18 de maio de 2023, 8h00

A inteligência artificial (IA) generativa está se tornando cada vez mais comum nas indústrias criativas. No entanto, os riscos de violação de direitos autorais de terceiros ainda não são claros. Uma série de ações judiciais já começam a despontar ao redor do mundo.

ConJur
O que são IAs generativas?
A IA generativa é uma subárea da inteligência artificial que possibilita a geração de conteúdo pelos sistemas inteligentes. Assim, os "sistemas generativos" de IA podem criar imagens, áudios, vídeos, textos, entre outros itens anteriormente criados apenas por seres humanos.

Por essa razão, esses sistemas são chamados de "generativos", isto é, eles "criam" ao invés de apenas "identificar" coisas, como muitos outros sistemas de IA já faziam há bastante tempo. Existem várias plataformas disponíveis para criar conteúdo utilizando a IA generativa. Algumas das mais conhecidas são ChatGPT, Dall-E 2, Stable Diffusion, Bing AI, entre outros.

Em setembro de 2022, a polêmica questão sobre se as obras geradas por IAs são protegidas por direitos autorais foi reacendida quando o artista Jason M. Allen venceu um concurso de arte nos EUA, com uma obra gerada por algoritmos de IA [1].

Obras produzidas por IAs generativas são protegidas pelo direito autoral?
Do ponto de vista jurídico, o tema é complexo e sem consenso entre as jurisdições ao redor do mundo. Nos Estados Unidos, por exemplo, o U.S. Copyright Office (USCO) já rejeitou a proteção de direitos autorais (copyrights) para obras de arte geradas por IA [2]. O USCO entendeu que além da "originalidade", a "autoria humana" é um elemento indispensável para que exista a proteção da obra.

Por outro lado, no Reino Unido [3] e na Nova Zelândia [4], é concedida proteção de direitos autorais a obras geradas por computador. O "UK Copyright, Designs and Patents Act 1988" prevê, expressamente, que "no caso de uma obra literária, dramática, musical ou artística gerada por computador, o autor deve ser considerado a pessoa por quem os arranjos necessários para a criação do trabalho são realizados" [5]. Nesse caso, a autoria pode ser atribuída à pessoa que "coordena" ou torna possível a criação da obra como um todo.

No Brasil, ainda não existem precedentes judiciais sobre o tema e a doutrina é escassa. De qualquer modo, a Lei de Direitos Autorais (LDA) [6] — Lei nº 9.610/98 — coloca ênfase na figura do autor para garantir proteção às denominadas "criações do espírito".

Pode-se extrair esse entendimento da LDA quando confere proteção não apenas aos direitos patrimoniais decorrentes da obra criada, mas, também aos "direitos morais" que estão intimamente relacionados à personalidade do autor. Assim, para além da "originalidade" seria necessário o "componente humano" para que a obra seja protegida.

Conforme apontam alguns estudiosos, o que estaria "por trás" dessa necessidade de um autor humano nas legislações é uma questão mais filosófica, que atribui a capacidade de "criatividade" apenas às pessoas humanas — e não às máquinas. Essa orientação pode ser observada, também, na legislação do Brasil. Contudo, há outro fator importante a se considerar: o que importa é realmente termos um ser humano "criando" ou sermos capazes das etapas de formulação de uma "obra"? Se estivermos falando em sermos capazes de conceber uma criação (sem que as etapas mentais para isso sejam, necessariamente, iguais às humanas) seria possível que um sistema de IA pudesse criar obras na maioria das legislações.

Do ponto de vista prático, o grande "risco" gira em torno da falta de uma definição clara sobre quem será o dono de um conteúdo criado pela IA. Se considerarmos que é necessário o "componente humano" para a proteção desse conteúdo, uma empresa que gera músicas com base em IA para games, por exemplo, não poderá protegê-las. Isso quer dizer que as músicas cairão em domínio público e poderão ser utilizadas livremente por qualquer pessoa, sem qualquer pagamento. Isso pode ter impactos significativos no mercado da IA.

Atualmente, existe uma infinidade de soluções de IA generativa oferecidas no mercado. Por exemplo, empresas de jogos já utilizam IA para geração de cenários, redações de jornais usam algoritmos para criação de pautas, assim como plataformas de música compõem trilhas sonoras personalizadas a partir de algoritmos. Na maioria dos casos, as empresas que contratam estes sistemas inserem dados para a criação da "obra" a ser ali gerada e, por isso, têm a expectativa de que este conteúdo será protegido pela legislação de direitos autorais, de maneira clara e segura. Entretanto, até o presente momento, isto não ocorre devido a toda a complexidade e novidade do tema.

IAs generativas violam direitos autorais de terceiros?
Outra grande questão envolvendo IAs generativas e direitos autorais consiste em saber se essas ferramentas violam direitos autorais de terceiros. Imagine-se, por exemplo, IAs generativas de texto como o ChatGPT que são treinadas em grandes bases de dados, que podem conter textos elaborados por estudantes, profissionais, especialistas etc. O mesmo pode ocorrer com as IAs treinadas em grandes bancos de dados de imagens, música, vídeo e afins. É justo que a IA utilize esses trabalhos para criar novos conteúdos sem dar créditos ao autor original?

Quando tratamos da IA, essa discussão ganha um novo nível de complexidade, já que os bancos de dados utilizados para o treinamento desses algoritmos, em regra, não são "abertos" para os seus usuários. Logo, o algoritmo pode ter sido treinado a partir de conteúdo protegido por direitos autorais, como no exemplo citado acima, reutilizando esse conteúdo total ou parcialmente, sem que os verdadeiros "donos" da obra saibam disso. Segundo a Lei de Direitos Autorais brasileira, em tese, essa conduta seria uma violação de direito autoral resultando na possível responsabilização das empresas detentoras destas tecnologias.

Alguns fóruns na internet [7][8] reportam os riscos de plágio em ferramentas de geração de texto pela IA e recomendam que elas sejam submetidas à verificadores de plágio antes de sua publicação. Outra preocupação é como estas soluções podem impactar o mundo acadêmico quando utilizadas por alunos e professores. Alguns educadores questionam, por exemplo, "se 49% de um texto foi escrito por IA — com os 51% restantes escritos por um humano — isso é considerado um trabalho original?" [9]. Não existem precedentes judiciais firmados sobre o assunto, de modo que essas discussões devem começar a despontar no Poder Judiciário brasileiro em breve.

Ações judiciais no horizonte
Nos EUA e na Europa, as IAs generativas já vêm enfrentando uma série de ações judiciais que podem mudar o rumo da questão. Em 2023, a Plataforma de licenciamento de imagens chamada Getty Images protocolou uma ação contra a Stability AI, alegando que a empresa copiou 12 milhões de fotos sem permissão ou compensação pela violação de direitos autorais [10]. Stability AI, DeviantArt e Midjourney também estão envolvidos em uma "class action" que alega a violação de direitos autorais de milhões de artistas ao redor do mundo [11].

Um precedente de um tribunal norte-americano pode fazer diferença neste sentido. Em 2016, o Google venceu uma ação judicial que alegava a violação de direitos autorais de terceiros na página do Google Books [12]. O Google alegou que a extração de textos produzidos por terceiros na internet para integrar seu mecanismo de busca não era uma violação de direito autoral, pois se tratava de um trabalho satisfatoriamente "transformativo". Ou seja, se tratava de um novo trabalho substancialmente diferente do original.

Um caso semelhante está tramitando na Suprema Corte dos EUA sem pistas sobre o seu possível desfecho. Trata-se do processo "Andy Warhol Foundation for the Visual Arts, Inc. v. Goldsmith", no qual se discute sobre se uma série de imagens que Warhol criou do artista Prince foram adequadamente "transformadoras", do ponto de vista da doutrina do "fair use" e da legislação de direitos autorais norte-americana. Caso a Suprema Corte entenda que a obra não foi suficientemente "transformadora", mas, sim "derivativa", isso poderá ser um obstáculo para as empresas detentoras das IAs generativas nos processos que enfrentam atualmente.

Em todos esses casos, espera-se que as cortes e tribunais esclareçam o que são "obras transformadoras" e "obras derivadas" na era da inteligência artificial, a fim de traçar a linha sobre quando há violação ou não dos direitos de terceiros.

Esse debate também está sendo travado na seara legislativa. Conforme noticiou o portal Reuters [13], o projeto de regulação da inteligência artificial na Europa (AI Act) teria sido emendado pela comissão responsável, a fim de prever que as empresas detetoras de IAs generativas (foundation models) terão de divulgar qualquer material protegido por direitos autorais utilizado no desenvolvimento de seus sistemas. Assim, modelos generativos de IA terão que "disponibilizar publicamente um resumo que divulga o uso de dados de treinamento protegidos pela lei de direitos autorais" [14].

Toda essa incerteza apresenta uma série de desafios para empresas que usam IA generativa, razão pela qual é importante adotar medidas de mitigação dos vários riscos relacionados ao uso da IA, incluindo possíveis avaliações internas, políticas corporativas bem como treinamento da equipe que utiliza estes sistemas na prática.

A tendência mais esperada é de que o Direito se reinventará para dar uma resposta adequada ao novo espírito do tempo inaugurado pela adoção massiva da inteligência artificial. Enquanto isso não acontece, cabe às empresas adotarem cautela, prevenção e mitigação dos riscos identificados no uso dessas tecnologias.

 


[6] Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l9610.htm. Acesso em 4/5/2023.

[12] Disponível em: https://casetext.com/case/guild-v-google-inc-1. Acesso em 4/5/2023.

Autores

  • é pesquisadora do Legal Grounds Institute, mestre em Teoria e Filosofia do Direito pela Universidade Federal de Santa Catarina (UFSC), especialista em Direito Digital, Contratos e Compliance, pesquisadora do Instituto Legal Grounds (LGPD), advogada no departamento de Mídia, Tecnologia e Entretenimento da Opice Blum, Bruno e Vainzof Advogados, editora-chefe e coordenadora da Revista Eletrônica da OAB-Joinville, autora do livro Inteligência Artificial, Ética e Direito (Editora SaraivaJur, 2022) e professora em cursos de graduação e pós-graduação em Direito.

Tags:

Encontrou um erro? Avise nossa equipe!