Direito Digital

Notas sobre a posição das plataformas digitais no cenário regulatório global

Autores

  • Carolina Xavier

    é mestranda em Direito Constitucional pela Universidade de Lisboa pesquisadora no Legal Informatics Laboratory (DTI-BR) e no Instituto Legal Grounds e advogada.

  • Maria Gabriela Grings

    é mestre e doutora em Direito processual pela Faculdade de Direito da Universidade de São Paulo (USP) bacharel em Direito pela Universidade Federal do Paraná (UFPR) coordenadora do Legal Grounds Institute e advogada.

  • Tatiana Bhering Roxo

    é mestre em Direito do Trabalho pela Pontifício Universidade Católica de Minas Gerais (PUC-MG) sócia do Barra Barros e Roxo Advogados advogada nas áreas trabalhista e de privacidade e proteção de dados pessoais professora convidada nos cursos de pós-graduação em Direito e Processo do Trabalho da Universidade Presbiteriana Mackenzie e em cursos de pós-graduação cursos in company e de curta duração e autora de artigos e livros.

  • Samuel Rodrigues de Oliveira

    é doutorando em Teoria do Estado e Direito Constitucional pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) coordenador do Legal Grounds Institute e advogado.

2 de agosto de 2022, 8h06

Nos últimos anos, as tensões envolvendo plataformas digitais e os debates acerca da necessidade de sua regulação têm sido observados ao redor do mundo. Vide os questionamentos enfrentados por Mark Zuckerberg, fundador e presidente-executivo do Facebook (agora Meta), perante o Senado dos Estados Unidos, após os escândalos envolvendo o vazamento de dados dos usuários pela Cambridge Analytica. Ou, ainda, as intensas pressões vindas de diversos Estados para que ações fossem tomadas para coibir as fake news no ambiente digital. No Brasil, por exemplo, foram assinados, neste ano de 2022, acordos com representantes de plataformas como Twitter, TikTok e Google, com o objetivo de combater a disseminação de desinformação no processo eleitoral.

ConJur
O cenário demonstra que essas empresas têm sido chamadas a assumir sua relevância nos processos políticos e no exercício de direitos fundamentais dos cidadãos e, por consequência, a arcar com os riscos e as responsabilidades advindas de tamanho poder. No entanto, nem sempre foi assim. Tamanho poder, inclusive, pode ser considerado fruto do paradigma que vigorou durante os primeiros estágios de desenvolvimento da internet, quando movimentos libertários defendiam a ausência de qualquer intervenção estatal no ambiente online. Destaque-se, nesse período, a Declaração de Independência do Ciberespaço, de 1996, na qual o famoso ativista John Perry Barlow teve papel fundamental.

Sob tal paradigma e sob a justificativa do fomento à inovação, os primeiros documentos regulatórios estabeleceram regimes de ampla proteção às empresas e a ausência de obrigações de monitoramento do conteúdo. Nos Estados Unidos, a matéria é prevista na seção 230 do Communications Decency Act, que determina a imunidade dos intermediários quanto ao material gerado por terceiros, considerando que tais atores não deveriam ser equiparados a editores (publishers), mas apenas a distribuidores (distributors) da informação; e, ainda, concede proteção para que façam a moderação de conteúdo que considerarem obsceno ou ofensivo [1]. No caso europeu, a Diretiva do Comércio Eletrônico prevê, nos artigos 12 a 15, o regime do notice-and-take-down, pelo qual a responsabilização das plataformas dependeria do efetivo conhecimento do material ilegal [2].

No Brasil, o Marco Civil da Internet seguiu caminho similar. Apesar de ter sido promulgado apenas em 2013 — anos depois do que ocorreu na Europa e nos Estados Unidos — o documento, que disciplina o uso da internet no país, tem seu modelo de responsabilização bastante restrito, baseando-se nesse mesmo paradigma. De acordo com o artigo 19, a responsabilidade civil dos provedores por danos decorrentes de conteúdo gerado por terceiros depende do descumprimento de ordem judicial específica — requisito que terá sua constitucionalidade discutida pelo Supremo Tribunal Federal no Tema 987. Essas previsões partem do mesmo pressuposto de que os intermediários online seriam meros condutores do fluxo comunicacional, isto é, serviriam apenas como uma espécie de ponte de ligação entre dois pontos: aquele que envia a mensagem e aquele que a recebe. Diante disso, sua função deveria ser apenas reativa.

Ocorre que, décadas depois da promulgação desses diplomas legais, já foi possível perceber os problemas e as desvantagens dos modelos adotados. Episódios recentes como a Primavera Árabe, as eleições norte-americanas de 2016 e a pandemia do coronavírus revelaram o enorme poder detido pelas grandes plataformas e a verdadeira natureza de suas atividades. Não há como se falar em "meros condutores" diante do constante monitoramento de atividades e comportamentos dos usuários, de sua utilização para o direcionamento de publicidade, ou, até mesmo, da própria seleção/filtragem/organização do conteúdo disponibilizado. Ou seja, as plataformas não apenas conectam dois pontos, mas assumem uma postura ativa quanto ao fluxo da informação, operando um complexo sistema de moderação de conteúdo.

Essa percepção foi sendo paulatinamente compreendida, processo que se revelou, primeiramente, via Poder Judiciário. Devido a todos os impactos que o digital pode trazer ao exercício e ao escopo de direitos fundamentais, os tribunais têm sido chamados, há anos, a resolver conflitos ocorridos nesses espaços. E, diante de novos contextos fáticos e munidos de instrumentos normativos normalmente insuficientes para lidar com essas novidades, as cortes tiveram a oportunidade de oferecer soluções interpretativas novas, desafiando tradicionais narrativas acerca da internet e definindo novos contornos e parâmetros de atuação às empresas [3].

Hoje, estamos diante de uma verdadeira mudança de paradigma, na qual, a partir da compreensão do papel e do poder acumulado pelas plataformas digitais, busca-se atribuí-las responsabilidades condizentes com sua centralidade no cenário político, econômico e social. Essa transição pode ser percebida não só no teor das decisões judiciais, mas, agora, também nas crescentes discussões legislativas que trouxeram uma nova onda de documentos legais.

Na Europa, por exemplo, foi aprovado, neste ano, o Digital Services Act (DSA) [4], que regula os intermediários da sociedade da informação, atualizando as previsões da Diretiva do Comércio Eletrônico. Com um modelo de regulação gradual — de acordo com a natureza dos serviços em causa e com o tamanho das empresas, tendo como referência o número de utilizadores — a lei determina que os termos e condições das plataformas devam ser estabelecidos dentro dos parâmetros legais europeu e dos Estados-Membros e, ainda, que sua aplicação leve em consideração direitos fundamentais dos usuários (artigo 12). Assim, parte-se do princípio básico de que o que é considerado ilegal naquelas jurisdições passa a sê-lo também no ambiente online. Além disso, apesar de manter o regime anterior de responsabilidade (o notice-and-take-down) são impostos diversos deveres procedimentais às empresas, como certas obrigações de transparência e de supervisão.

Essa nova onda de diplomas legais também alcança o Brasil, especialmente por meio do PL 2.630/2020, popularmente conhecido como PL das Fake News, em tramitação na Câmara dos Deputados. Também com foco na criação de regras para a moderação de conteúdo, o projeto estabelece prazos, deveres de prestação de contas e a garantia do direito ao contraditório ao usuário, e trata, ainda, da remuneração do jornalismo e da regulação de mensageria privada.

E como ficam os direitos autorais?
A nova compreensão acerca da natureza das atividades desenvolvidas pelos prestadores de serviços online não impactou apenas as regulações voltadas à moderação de conteúdo. A proteção de direitos autorais — dificultada diante da facilidade e da rapidez de propagação e compartilhamento de materiais no ambiente digital — também foi alvo de mudanças nesse movimento global de responsabilização das plataformas.

Até recentemente, a questão era tratada sob o modelo do notice-and-take-down, isto é, da obrigação específica de agir a partir do conhecimento. Originada do regime estadunidense delineado no Digital Millenium Copyright Act, a regra acabou por se tornar um standard global. Nessa lógica, os custos da identificação do material protegido e da notificação da plataforma recaíam sobre os titulares do direito ou outros usuários.

Em 2019, no entanto, acompanhando as pressões sobre as Big Techs, foi aprovada a Copyright Directive, diretiva de direitos de autor da União Europeia, que busca corrigir as distorções quanto aos rendimentos gerados pelo uso online de materiais protegidos, fenômeno chamado de "value gap". A ideia é que haja um redirecionamento das receitas das gigantes de tecnologia para artistas e jornalistas, por meio da imposição de obrigações de monitoramento proativo do conteúdo disponibilizado [5]. O diploma legal chama atenção, principalmente, por seu artigo 17, que formula um mecanismo específico de responsabilidade para direitos autorais: cria uma base jurídica para os titulares de direito autorizarem a utilização das obras e prevê um regime para que as plataformas possam evitar responsabilização na ausência de autorização [6]. Tal regime é baseado em três condições que envolvem amplos deveres de diligência, incluindo que sejam tomadas todas as medidas para prevenir que o conteúdo ilegal seja publicado novamente — o mecanismo do notice-and-stay-down.

O controverso dispositivo gerou duas principais críticas. A primeira diz respeito à diferença entre imposições de obrigações gerais e específicas de monitoramento. A princípio, o próprio artigo 17 (8) da diretiva deixa claro que "a aplicação do presente artigo não implica qualquer obrigação geral de monitorização". Na prática, no entanto, como cumprir as obrigações impostas sem que seja estabelecido um sistema de monitoramento geral do conteúdo compartilhado? — a regra contraria a jurisprudência do Tribunal de Justiça da União Europeia, que proíbe tal imposição [7].

Além disso, apesar de não especificar quais meios deverão ser utilizados, os autores defendem que o texto legal incita a utilização dos chamados filtros de upload, mecanismos automatizados que operam cruzando o material a ser postado com um banco de dados de direitos autorais e, assim, verificando se há violação de direito. Isso porque, dado o massivo volume de conteúdo postado a cada minuto, ferramentais manuais não parecem ser suficientes. Vale lembrar que um sistema similar já é utilizado pelo YouTube, sob o nome de Content ID que, ao identificar a suposta ilegalidade do conteúdo, notifica o autor que, por sua vez, pode, por exemplo, bloquear o vídeo ou mantê-lo no ar e gerar receita a partir da publicidade nele inserida. O sistema já é bastante criticado, principalmente por gerar os chamados "falsos positivos". Além das tecnologias hoje existentes serem demasiadamente custosas, ainda não são sofisticadas a ponto de distinguir o que é de uso proibido e o que constitui exceção, dentre elas, material de domínio público, citações e paródias permitidas em lei, o que acaba por punir usos legítimos, e, assim, impactar diretamente direitos fundamentais dos usuários.

Quanto a essas e outras críticas que recebeu o artigo 17, vale destacar a recente decisão do Tribunal de Justiça da União Europeia, em resposta a um pedido da Polônia para que o artigo fosse anulado por, supostamente, desrespeitar o direito à liberdade de expressão e informação dos cidadãos europeus [8]. Na ocasião, apesar de ter negado o pedido, o tribunal determinou aos Estados-membros que a transposição do texto para o direito interno baseie-se "numa interpretação desta disposição que permita assegurar o justo equilíbrio entre os direitos fundamentais protegidos pela Carta" (§99). Dentre tais salvaguardas, estão: a garantia de que sejam respeitadas as exceções e limitações ao direito do autor, excluindo, portanto, medidas que filtram e bloqueiam conteúdos lícitos no momento do carregamento (§§ 85 a 88); a garantia de que as plataformas não sejam obrigadas a prevenir o carregamento de materiais cuja certificação de ilicitude requeira um "exame jurídico aprofundado" (§ 90); e, ainda, a previsão de mecanismos eficazes de reclamação e recurso, bem como de mecanismos de resolução extrajudicial (§§ 93 a 95). Diante disso, com essa importante decisão, o tribunal esclarece alguns questionamentos quanto ao dispositivo legal, pacifica algumas críticas e norteia a implementação do regramento pelos Estados-membros em direção à necessidade do devido balanceamento entre todos os direitos envolvidos: a liberdade de expressão e informação dos cidadãos, os direitos autorais dos titulares e a liberdade de empresa dos prestadores de serviços.

Para Giancarlo Frosio e Sunimal Mendis, o artigo 17 representa a consolidação legislativa da transformação dos operadores online de meros condutores para gatekeepers ativos quanto ao conteúdo gerado por terceiros [9]. No Brasil, no entanto, o tema ainda está em aberto. Legislativamente, os direitos autorais estão disciplinados pela Convenção de Berna para a Proteção das Obras Literárias e Artísticas, ratificada em 1975; e pela Lei de Direitos Autorais nº 9.610/98 que, além de especificar o que constitui obra intelectual protegida, prevê que qualquer uso, reprodução ou modificação deve ter autorização prévia do autor. Apesar disso, em se tratando de leis anteriores à popularização da internet e das plataformas digitais, não há, ainda, um modelo definido para a responsabilização dos intermediários — considerando-se que o Marco Civil da Internet excluiu as violações de direitos autorais da regra geral do artigo 19.

Assim, enquanto a regulação dos direitos autorais na internet não acontece, acompanhamos as discussões estrangeiras e o precedente europeu e a sua influência nos debates e na futura regulação do tema no Brasil.

 


[3] Cf., por exemplo, Zhong Qin Wen v. Baidu (Beijing Higher People’s Court, 2014); Delfi AS v. Estonia (TEDH, 2015); Google Spain v. AEPD e Mario Costeja González (TJUE, 2014).

[4] O documento, ao lado do Digital Markets Act e da Proposta de Regulação da Inteligência Artificial, faz parte da Estratégia Digital do bloco europeu.

[5] FROSIO, Giancarlo; MENDIS, Sunimal. Monitoring and filtering: European reform or global trend?, in: Center for International Intellectual Property Studies Research Paper n. 2019-05, p. 20.

[7] Como definido em Eva Glawischnig-Piesczek v. Facebook Ireland Limited (TJUE, 2019, §34).

[9] FROSIO, Giancarlo; MENDIS, Sunimal. Monitoring and filtering, p. 19.

Autores

  • é membra do Grupo de Estudos em Novas Regulações de Serviços Direitos, do Instituto Legal Grounds, mestranda em Direito Constitucional pelas universidades de Lisboa e de Hamburgo, bacharel em Direito pela Universidade Federal de Minas Gerais (UFMG) e advogada.

  • é pesquisadora do Instituto Legal Grounds, mestre e doutora em Direito Processual pela Faculdade de Direito da Universidade de São Paulo (USP), bacharel em Direito pela Universidade Federal do Paraná (UFPR) e advogada.

  • é pesquisadora do Instituto Legal Grounds, mestre em Direito do Trabalho pela Pontifícia Universidade Católica de Minas Gerais, bacharel em Direito pela Pontifícia Universidade Católica de Minas Gerais, professora convidada da pós-graduação da Universidade Mackenzie, professora da pós-graduação da Escola Superior da Advocacia da OAB-MG e sócia do Barra, Barros e Roxo Advogados.

  • é pesquisador do Instituto Legal Grounds, doutorando em Teoria do Estado e Direito Constitucional pela PUC-Rio, mestre em Direito e Inovação pela Universidade Federal de Juiz de Fora (UFJF), especialista em relações internacionais e advogado.

Tags:

Encontrou um erro? Avise nossa equipe!