Consultor Jurídico

Direito digital

Regulação de redes sociais: uma perspectiva internacional

Por  e 

A Alemanha foi um dos primeiros países a legislar de maneira mais rigorosa sobre a responsabilização das redes sociais por conteúdos publicados em suas plataformas. Tendo como marco principal o chamado Network Enforcement Act (NetzDG), a experiência germânica quanto à moderação de redes sociais, apesar de relativamente recente, tem sido um importante referencial para demais ordenamentos jurídicos, tanto para países da própria União Europeia quanto para países de fora do bloco.

A fim de promover debates plurais e aprofundados sobre questões relacionadas ao Direito Digital, o Instituto Legal Grounds lançou o projeto "Observatório Internacional De Regulação Digital", que contará com a participação de professores e formuladores de políticas públicas internacionais sobre as principais pautas de regulação na área das novas tecnologias, aproximando especialistas de destaque ao redor do mundo. Para marcar o lançamento do observatório, o instituto convidou o professor doutor Martin Eifert, um dos maiores especialistas na área do Direito e Tecnologias da Alemanha e da Europa, para debater sobre a regulação de redes sociais a partir da experiência alemã e europeia.

Estabelecendo premissas: principais pontos do debate sobre a regulação de redes sociais
A relevância das redes sociais para as sociedades contemporâneas é inegável para a promoção da esfera individual, a formação de laços comunitários e o fomento de debates públicos. Eifert, todavia, ressalta criticamente a regulação branda e generalista presente há até pouco tempo no que se refere às redes sociais, fruto de uma mentalidade que visava estimular a inovação na internet sem entraves burocráticos. Essa falta de controle colocou as redes sociais nas mãos de poucos e poderosos gatekeepers, que hoje detêm um poder tanto econômico quanto social.

Há, assim, dois pontos principais a serem considerados. Primeiro, redes sociais não apenas promovem incentivam o debate público ao relegar a um papel secundário os gatekeepers das mídias tradicionais. Elas também permitem que seus usuários disseminem discursos de ódio, desinformação e demais tipos de conteúdo ilegal. Como o alcance e a dinâmica das plataformas amplificam os danos resultantes dessas práticas, o foco da discussão deixou de ser as isenções de responsabilidades, concentrando-se no desenvolvimento de um esquema de due dilligence obligations. O maior desafio para qualquer abordagem que vise solucionar esse problema é ter que prevenir ou remediar danos decorrentes de publicações indevidas sem incorrer em cerceamento da liberdade de expressão ou em violações a demais direitos fundamentais.

Segundo, redes sociais, além de reduzirem a relevância dos gatekeepers tradicionais, tornaram-se uma espécie gatekeepers em si. Os termos e condições de uso das plataformas, bem como seus algoritmos, definem o que pode ser dito e ouvido, e o poder de remover conteúdos e bloquear usuários tem uma influência significante para o debate público. O debate acerca da regulação dessas plataformas decorre também disto: da preocupação que empresas privadas possam excluir questões importantes, ainda que controversas, da esfera de deliberação pública.

Eifert aponta que, hoje, usuários são tanto geradores quanto recipientes de conteúdo. Redes sociais têm a capacidade de amplificar o conteúdo com estruturas sem limites, o que vale tanto para conteúdo benéfico quanto maléfico, muitas vezes atacando direitos e valores sociais. Outros problemas podem ser destacados, como o fato de a escassez de concorrência manter na mão de poucos o controle do conteúdo que circula. Ou a possibilidade de que a liberdade de expressão possa ser abusada de forma sistêmica, se aproveitando de artifícios como fake news e contas falsas ou bots para amplificar mensagens de ódio, colocando em risco valores democráticos e silenciando vozes no âmbito virtual e no "real".

Ademais, há a dificuldade regulatória em confrontar vis-à-vis um agressor e um recipiente de conteúdo ilegal, visto que ambos não têm seus dados acessados diretamente, surgindo a questão de em que medida iniciativas regulatórias devem demandar plataformas de redes sociais como intermediários no polo passivo de uma ação. Outro ponto destacado por Eifert é a (in)congruência entre legislação e as políticas comunitárias adotadas. Nos termos aceitos de uso, são impostas inúmeras regras de "convivência" que não necessariamente condizem com disposições legais, já que a maioria são baseadas em noções legais norte-americanas, por exemplo.

Segundo Eifert, a moderação de conteúdo privado é ambígua, pois pode, por um lado, favorecer os pouco moderadores e seus interesses, e, por outro, impedir movimentos de disseminação de ódio, o que a liberdade de expressão não permite censurar em muitos Estados. Com isso, entende-se que qualquer regulamentação que venha ser imposta deve levar em consideração o direito fundamental à liberdade de expressão, a não ser que este venha a ferir outros direitos fundamentais.

Um breve panorama sobre a experiência alemã
Tratando especificamente das iniciativas regulatórias alemãs, Eifert ressalta que o ponto de partida dos membros da
União Europeia (UE) sempre se deu a partir ótica da responsabilidade. Pela legislação atual, embora provedores não tenham a responsabilidade sobre conteúdo gerado, elas têm a responsabilidade de remover conteúdo explícito e ilegal tão logo tomem conhecimento de sua publicação. Provedores devem remover os conteúdos, mas não compensar as partes lesadas.

Um ponto curioso destacado por Eifert é que o argumento de inovação não mais se sustenta, dado o tamanho dos provedores dominantes. Ao mesmo tempo, o desafio de monitorar um volume imensurável de conteúdo é complexo: automatizar o processo abre as portas para falhas de controle, e o monitoramento humano torna o custo proibitivo. Em suma, este modelo perdura até hoje, considerando-se que o provedor só amplifica, mas não produz o conteúdo danoso.

Desde 2000, quando se forjou a regulamentação europeia atual  a E-Commerce Directive (Directive 2000/31/EC) , governos têm buscado estabelecer diálogos com provedores, especialmente para abordar questões como xenofobia devido a problemas migratórios. Ações brandas têm sido tomadas voluntariamente, mas estão longe de ser consideradas satisfatórias.

Em 2017, o governo alemão instituiu o NetzDG que estabelece, dentre outros: o fácil acesso para notificação; avaliações de conteúdo adequadas; um padrão de desempenho, no qual o regulamento ordinário é a remoção do conteúdo dentro de sete dias; obrigação de transparência, majoritariamente a partir da elaboração de relatórios; e a possibilidade de sanções, mediante multas administrativas, para casos de falha sistemática.

Eifert ressalta, todavia, que há pontos importantes não abarcados pelo NetzDG. E.g., somente as plataformas com mais de dois milhões de usuários estão englobadas na lei, e não existe a previsão de restituição por danos, somente a possibilidade de remoção do conteúdo ofensivo. Assim, a discussão legal perdura, visto que o curto prazo para avaliar se o conteúdo é ilegal ou não faz com que provedores retirem conteúdos em casos de dúvida, o que toca diretamente o direito à liberdade de expressão. Apesar da discussão, uma reavaliação em 2020 não apurou evidências de abuso em bloqueio de conteúdo.

Nesse sentido, o parlamento alemão deve, em breve, aprovar emendas ao NetzDG. Para Eifert, as alterações mais importantes são: os operadores das plataformas deverão fornecer razões para a remoção de conteúdo; ambas as partes envolvidas deverão ter o direito de se opor à decisão de retirada e requerer seu reexame; adicionalmente, independentemente de disputas judiciais, painéis de resolução de conflito deverão ser instituídos, para fins de reexame de decisões, caso ambas as partes concordem com a medida.

O cenário atual: o Digital Service Act (DSA) e as perspectivas para a UE
O NetzDG é a regulação mais proeminente na Europa, e a única sobre a matéria em vigência até o momento. Contudo, há cinco meses a Comissão Europeia propôs duas iniciativas legislativas para atualizar as normas que regulam os serviços digitais na UE: o Digital Services Act (DSA) e o Digital Markets Act (DMA) [1]. Em linhas gerais, o DSA tem como objetivo criar um ambiente digital mais seguro, no qual os direitos fundamentais de todos os usuários de serviços digitais sejam devidamente protegidos. A ideia é buscar uma regulação de serviços digitais mais ativa, baseada em procedimentos sistêmicos, mas com salvaguarda da liberdade de expressão e demais direitos fundamentais.

Assim, os mecanismos da DSA se preocupariam com o bloqueio excessivo de conteúdo, mas não com o bloqueio aquém do necessário. Uma possível crítica é a de que, caso haja o bloqueio, essa decisão não estaria aberta para questionamento, o que traria preocupações constitucionais.

Quanto à moderação de conteúdo privado, Eifert destaca que o mecanismo de "notificação e remoção" é um recurso legal usado contra violações de direitos privados ou conteúdo ilegal. Há muito as plataformas de mídia social atuam também por meio de procedimentos de notificação e remoção de conteúdo quando há violações de padrões da comunidade, retomando-se aqui uma grande discussão sobre um aparente conflito entre os padrões da comunidade e a proteção da liberdade de expressão.

Para Eifert, as emendas ao NetzDG e o DSA aplicam corretamente o tratamento de reclamações para a remoção de conteúdo, independentemente de sua base legal, pois qualquer remoção baseada na violação dos padrões da comunidade deve ser reavaliada a partir da solicitação. Isso fornece salvaguardas contra a aplicação abusiva de padrões da comunidade por plataformas. Ademais, a proposta DSA exige que as plataformas incluam informações sobre quaisquer restrições que impõem ao conteúdo gerado pelo usuário e quaisquer políticas, procedimentos, medidas e ferramentas usadas para moderação de conteúdo em seus termos e condições.

Mas algumas questões se colocam quanto à legitimidade de tais normas: haveria com isso restrição do discurso público de maneira inadequada? O DSA conseguiria proteger efetivamente os direitos fundamentais, ou seria uma promessa vazia com relação à liberdade de expressão?

Na análise de Efeirt, uma vez que as plataformas de mídia social vendem atenção personalizada para a indústria de publicidade e, assim, se esforçam para maximizar o número de usuários, buscando que eles sejam os mais ativos pelo maior tempo possível, os padrões da comunidade, bem como a curadoria de moderação de conteúdo, são usados para promover e encorajar o ambiente online. As plataformas podem preferir um conteúdo atrativo e excluir conteúdo controverso.

A princípio, qualquer prestador ou serviço privado teria o direito de definir os termos e condições em que o serviço pode ser utilizado, o que não levantaria muitas preocupações, caso houvesse um grande número de plataformas e cada usuário pudesse escolher os termos e condições de sua preferência. Isso, porém, não é a realidade.

Eifert defende a necessidade de equilíbrio entre o direito fundamental dos operadores de conduzir seus negócios como quiserem, e os direitos à não-discriminação e à liberdade de expressão, incluindo o interesse no discurso público. Sugere-se que, em termos gerais, as plataformas usem os padrões da comunidade como meio de diferenciação do produto, mas também sejam impedidas de discriminar usuários ou conteúdos sem motivo legítimo.

Isso diz respeito à difícil questão dos efeitos horizontais dos direitos fundamentais nas transações privadas e, de maneira mais geral, nos atos de partes privadas. Embora tenhamos uma doutrina de longa data sobre os efeitos indiretos dos direitos fundamentais e do direito privado a nível nacional na Alemanha, não existe uma doutrina de base amplamente aceita para estender o âmbito da Carta da UE às relações entre partes privadas. Assim, seu efeito no processo de redação de termos e condições que especificam os requisitos de remoção e reintegração de conteúdo abaixo do desejável permanece uma questão em aberto. Mas, sendo possível presumir que a UE tem o dever de proteger todos os direitos fundamentais, é plausível supor que o dever de proteger pode incluir tornar esses atores privados responsáveis pelos direitos fundamentais que suas práticas comerciais podem afetar.

Para Eifert, seria ao menos duvidoso que o amplo critério que o DSA deixa às plataformas online com relação aos termos e condições seja consistente com o regulamento. Poder-se-ia argumentar que não é apenas desejável, mas exigida, a promulgação de uma exigência legal que obrigue os operadores a redigir as normas da comunidade com o devido respeito ao direito à liberdade de expressão.

No entanto, a questão regulatória mais difícil seria como lidar com os efeitos sistêmicos. Tem-se uma noção de que há um efeito tóxico para o discurso público, acompanhado da erosão da confiança nas instituições públicas. Ainda, é difícil distinguir o impacto das redes sociais e demais questões que estão enraizadas fora da internet. Resta a questão: a polarização é resultante das comunicações nas redes sociais ou as comunicações nas redes sociais estão "apenas aí"?

O DSA impõe às grandes plataformas o dever de identificar, analisar e avaliar periodicamente qualquer risco sistêmico significativo decorrente do funcionamento e da utilização dos seus serviços na UE. As plataformas devem ainda implementar medidas de mitigação e publicar relatórios sobre a avaliação de risco e das medidas tomadas. Mais: autoridades públicas podem solicitar às grandes plataformas o acesso aos dados, para pesquisas obrigatórias. Eventualmente, se surgirem riscos sistêmicos, a comissão pode convidar grandes plataformas e partes interessadas a elaborar códigos de conduta.

Com o atual estado de incerteza, Eifert diz que esta poderia ser a melhor abordagem, no momento. No longo prazo, entretanto, dificilmente poderia ser deixado às próprias plataformas a definição do grau de riscos suportável e as contramedidas apropriadas. Ainda, as plataformas devem ser transparentes e extremamente cautelosas quanto à remoção de conteúdo. A responsabilidade das mídias sociais está bem-posicionada na agenda internacional, mas as democracias liberais vivem um dilema: baseiam-se na liberdade de expressão ao passo que se encontram cada vez mais ameaçadas por essa liberdade.

A maneira europeia de lidar com esse dilema é por meio de um sistema de corregulação. Caberá ao governo impor obrigações procedimentais e organizacionais às redes sociais, que por sua vez devem garantir a remoção imediata de conteúdo ilegal e a avaliação adequada da decisão. Isso exigirá a aplicação de padrões comunitários que sejam sensíveis aos direitos fundamentais e que lancem luz sobre os efeitos sistêmicos e de avaliação de risco. Para Eifert, não parece um mau começo.




Topo da página

 é mestranda em Filosofia e Teoria Geral do Direito pela Faculdade de Direito da Universidade de São Paulo - USP, pesquisadora do Instituto Legal Grounds.

 é advogada e professora universitária, mestre e doutora em Direito pela PUCSP, doutora pela Università del Salento (Itália), pós-doutora pela EGS/Suíça, pela Universidade de Coimbra, CES, pela Faculdade de Direito da USP, e pela PUCSP- TIDD, pesquisadora do Instituto Legal Grounds.

 é pesquisador do Instituto Legal Grounds, doutorando em Teoria do Estado e Direito Constitucional pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e mestre em Direito e Inovação.

Revista Consultor Jurídico, 15 de junho de 2021, 14h00

Comentários de leitores

0 comentários

Comentários encerrados em 23/06/2021.
A seção de comentários de cada texto é encerrada 7 dias após a data da sua publicação.