Consultor Jurídico

Direito autoral de obras criadas por IA é problema longe de solução

17 de julho de 2023, 8h49

Por José Higídio

imprimir

Sistemas de inteligência artificial (IA) já são capazes de criar poemas, pinturas e músicas conforme solicitações e orientações de humanos. E a complexidade cada vez maior das obras geradas por essas ferramentas apresenta grandes desafios para a área de propriedade intelectual (PI), especialmente quanto aos direitos autorais envolvidos.

Freepik
IA já cria obras em diversos formatos,
como poemas, pinturas e músicasFreepik

"Por mais que o ordenamento jurídico tente acompanhar as mudanças tecnológicas, ele ainda não está adaptado para prever uma criação realizada totalmente por meio de uma máquina", afirma Fernanda Vieira, advogada especialista em PI e sócia do escritório Daniel Advogados.

Em meio a tantas transformações, três grandes controvérsias sobre o direito autoral de obras feitas por meio de IA tomam conta dos debates jurídicos: a existência ou não de proteção legal; as fontes usadas nos treinamentos; e a identificação dos responsáveis por eventuais violações. Até o momento, nenhuma delas possui uma solução muito clara.

Homem ou máquina?
A primeira grande polêmica diz respeito à aplicabilidade da proteção do direito autoral de produtos criados com o auxílio de IA. A discussão surge porque a Lei dos Direitos Autorais (LDA) considera que o autor de uma obra literária, artística ou científica é uma pessoa física. "Ter um humano por trás dessa criação é um pressuposto para ter o reconhecimento dessa autoria", aponta Filipe Fonteles Cabral, sócio do escritório Dannemann Siemsen.

Fernanda Vieira ressalta que a LDA, sancionada em 1998, "é de uma época em que não se pensava em um criador de obras artísticas que não fosse um ser humano". Assim, a criação por meio de IA levanta a questão: tais obras podem contar com proteção de direito autoral?

Não há uma resposta unânime dentro da área de PI. Uma corrente, por exemplo, defende uma interpretação da lei "ao pé da letra" — ou seja, considera que a proteção não se aplica a obras feitas por IA, pois o criador não é humano.

Por outro lado, os críticos dessa corrente entendem que o domínio público "automático" é um desestímulo aos desenvolvedores das tecnologias, que não teriam exclusividade para explorar comercialmente as obras produzidas por IA. Já os defensores da tese alegam que as plataformas têm diferentes possibilidades de monetização, que não necessariamente envolvem o pagamento de direitos autorais.

Uma segunda corrente traz interpretação mais flexível da norma: a ideia de que o produto não existiria se um humano não operasse a ferramenta de IA. Assim, a participação humana, por meio de sugestões sobre qual deveria ser o resultado, garantiria a proteção do direito autoral do conteúdo.

Por fim, uma corrente intermediária sustenta que a proteção depende do quão determinante foram as sugestões e ideias trazidas pelo humano. Com isso, as regras não se aplicariam nos casos em que toda a parte criativa vem da IA, mas se aplicariam quando há um impulso criativo do humano e a IA aparece como uma mera ferramenta para atingir o resultado.

De acordo com Fernanda Vieira, "se há um input criativo relevante do usuário, há um consenso maior entre os profissionais de que a autoria e o direito de explorar a obra poderiam ser concedidos ao usuário da ferramenta de IA".

Porém, se a tecnologia toma decisões criativas de forma autônoma e o usuário contribui apenas com informações e diretrizes básicas, "fica mais difícil reconhecer direitos autorais para aquele que não teve qualquer ingerência artística sobre a obra". Assim, ela entende que a resposta depende da análise do nível de contribuição do ser humano no caso concreto.

Reprodução
Diferentes correntes debatem se proteção autoral se aplica a obras feitas por IA

Fernanda Magalhães, sócia do escritório Kasznar Leonardos, está entre os que defendem que a doutrina majoritária no Brasil afasta a proteção autoral para obras criadas por IA, e que, portanto, "esses materiais devem integrar o domínio público". Segundo ela, há "divergência residual" quanto a obras que tenham um "maior grau de intervenção humana para sua criação".

Por sua vez, Cabral também indica que, a princípio, "não há proteção autoral para criações exclusivamente de IA" e tais obras pertencem ao domínio público. Segundo ele, é preciso "analisar no caso concreto se houve uma intervenção criativa do ser humano, pela qual se possa dizer que ele foi o criador".

Mesmo assim, o advogado destaca ferramentas do Direito Civil que podem ser aplicadas em algumas situações. Por exemplo, a previsão contratual: se o contrato estabelece que qualquer obra criada por meio de IA pertence à empresa desenvolvedora, o caso concreto já está definido. Além disso, o Código Civil veda o enriquecimento sem causa às custas de terceiros. Tal tese pode ser usada para evitar a exploração comercial dessas obras.

Fernanda Vieira lembra que é "sempre recomendável entender o escopo da licença de uso da tecnologia de IA que se está utilizando", pois os termos podem incluir uma proibição para exploração comercial da obra.

Dia de treinamento
A segunda polêmica se refere à potencial violação do direito autoral com o uso de obras de terceiros durante os treinamentos das IAs. Boa parte das ferramentas é desenvolvida a partir de um treino baseado na submissão de dados ao algoritmo.

Para que uma IA seja capaz de reconhecer visualmente cachorros, por exemplo, centenas de milhares de imagens são submetidas ao algoritmo. A ferramenta aprende por associação: durante o treinamento, indica-se a ela quais das imagens submetidas retratam cachorros.

Cabral explica que isso exige "um volume gigantesco de informações", na maioria das vezes adquiridas em inúmeras fontes na internet, por meio da mineração de dados. A controvérsia surge quando obras protegidas por direito autoral são usadas nesse procedimento.

Existem ações judiciais recentes em curso sobre o assunto, especialmente nos Estados Unidos, ainda sem resolução. Em uma delas, um dos maiores bancos de imagens do mundo alega violação do direito autoral de arquivos de sua propriedade no treinamento de ferramentas de IA.

Enquanto empresas detentoras dos conteúdos defendem a tese da violação de direitos, os desenvolvedores das ferramentas argumentam que o uso das obras é mínimo e, portanto, não configura uma exploração comercial de um produto final concorrente. Segundo Cabral, "essa batalha jurídica está só começando".

O advogado diz que é difícil opinar sem detalhes de casos concretos, mas ele tende a concordar que não há violação em situações desse tipo. Isso porque, no Brasil, a LDA prevê exceção ao direito autoral nos casos em que somente pequenos trechos de uma obra são usados para uma finalidade que não traga danos ao autor original.

Pixabay
Uso de obras de terceiros no treinamento de IA também é tema de debates jurídicosPixabay

"Se o desenvolvedor do algoritmo de IA conseguir comprovar que utilizou apenas pequeno trecho e que o resultado final não traz nenhum prejuízo para a exploração comercial da obra, ele está amparado pela LDA", pontua o advogado. Mesmo assim, Cabral ressalta que isso é apenas uma baliza: "As provas do caso concreto podem levar a uma outra direção".

Fernanda Vieira reconhece o "espaço de permissibilidade" garantido pela legislação para que trabalhos de terceiros sejam usados na composição de novas obras, como forma de "estímulo à inovação criativa".

Ela, no entanto, salienta que a questão não é tão simples: "A criação de um banco de dados de obras autorais para fins de treinamento da IA visa a um resultado que gera proveito econômico para as empresas desenvolvedoras". A depender da obra, segundo a advogada, surge até mesmo "um ambiente de competição, em que a própria exploração das obras originais fica prejudicada".

Assim, ela entende que "o posicionamento com maior mitigação de riscos seria no sentido de buscar as autorizações necessárias frente aos terceiros". Na prática, porém, isso é bem difícil e pode esbarrar em limitações técnicas, devido à grande quantidade de materiais usados pela IA para gerar a obra, "sendo difícil apontar com precisão qual a origem daquele trabalho". Ainda assim, Fernanda Vieira recomenda, dentro do possível, "que haja algum grau de auditabilidade na trilha de decisões percorridas pela IA até o resultado final".

Fernanda Magalhães, por sua vez, diz que o uso de obras de terceiros no treinamento de sistemas de IA "gera proveito econômico direto para as plataformas sem que dessa exploração econômica se garanta qualquer compensação aos seus autores ou detentores de direitos autorais", além de trazer "riscos à exploração normal das obras originárias e, consequentemente, potencial prejuízo a seus titulares". Por isso, ela também entende que, "nos termos da legislação brasileira atual, se faz necessária a obtenção de autorizações dos respectivos detentores de direitos autorais sobre as obras originais".

Quem paga?
Por fim, há também a controvérsia sobre a responsabilização: se a ferramenta de IA efetivamente violar direitos autorais, de quem é a responsabilidade por uma eventual reparação?

Segundo Cabral, é muito difícil saber a fonte exata utilizada pela IA para a criação de textos e imagens, por exemplo. "Não se sabe qual foi o nível de intervenção que a ferramenta imprimiu para diferenciar essa obra da original", assinala ele.

Assim, existe a possibilidade de plágio — ou seja, qualquer usuário da ferramenta está sujeito a violar o direito autoral de terceiros, pois não sabe se a obra produzida pela IA será semelhante a outras e nem "quais são as fontes de pesquisa do algoritmo". De acordo com Cabral, o uso de IA para produção de obras exige cuidado justamente por causa desse risco e da dificuldade de averiguação.

A depender da interpretação, a responsabilização pode recair sobre o humano que utilizou a ferramenta; sobre a empresa que disponibilizou a IA; ou até sobre o programador que usou obras de terceiros para o treinamento do algoritmo.

Na visão de Cabral, é "relativamente clara" a responsabilidade do humano que, por exemplo, publique um texto produzido por IA, pois existe aí um "ato voluntário" de utilizar a ferramenta. Mesmo assim, a corresponsabilidade da empresa desenvolvedora ainda é uma questão em aberto.

Reprodução
Não há consenso sobre quem deve ser responsabilizado quando IA comete plágio

Segundo Fernanda Vieira, "a questão do plágio, e, consequentemente, da responsabilização, recai, em primeiro lugar, sobre o fato de a IA ter tido ou não acesso à obra original supostamente plagiada, e, em segundo lugar, se uma parcela considerável dessa obra original foi reaproveitada na obra de arte criada pela máquina". Porém, em algumas situações, não é possível verificar com precisão como a IA tomou suas decisões criativas, nem quais elementos de cada obra original foram usados como base.

Além da tese da responsabilidade objetiva dos desenvolvedores e operadores da IA (independentemente de negligência), a advogada cita outras possibilidades que também estão em debate, como a responsabilidade via contrato entre as partes e a obrigatoriedade de contratação de seguro com cobertura específica contra esse tipo de violação.

Já Fernanda Magalhães aponta que uma ferramenta de IA estruturada de forma limitada, com acesso a poucos conteúdos, "é mais propensa a gerar materiais que acabam por plagiar diretamente as obras originais que compõem sua base de referências". Tal risco é reduzido com a criação de algoritmos que reconheçam e evitem o uso de obras originais não licenciadas para a criação de materiais.

Muitas perguntas, poucas respostas
Tais polêmicas não são contempladas por qualquer legislação mundo afora. Iniciativas de regulação da IA já existem em diversos países, mas elas ainda estabelecem somente princípios.

"A IA é uma tecnologia que transcende barreiras geográficas e políticas", diz Vieira. "Por isso, uma cooperação internacional visando ao estabelecimento de um padrão regulatório comum é essencial para garantir um uso seguro e ético da ferramenta, bem como a expectativa de que eventuais danos serão endereçados de forma justa".

Segundo Cabral, o projeto de lei brasileiro que institui o Marco Legal da IA segue a mesma "tendência mundial de regular mediante princípios", sem ir a fundo nas questões de direito autoral.

Na sua visão, o direcionamento para essas controvérsias provavelmente virá pela jurisprudência, nas ações que já começam a surgir. Para determinar a ocorrência de violação ao direito autoral, os tribunais "devem usar critérios de qual foi o contributo humano para aquela criação".