Consultor Jurídico

Opinião

Provedores de aplicações na internet têm o dever de praticar censura?

Por 

A internet se torna a cada dia mais onipresente e essencial para o desenvolvimento humano na sociedade digital. Verifica-se, ao mesmo tempo, uma explosão de denúncias sobre usos ilegítimos da rede mundial de computadores, o que torna relevante a aferição da responsabilidade dos provedores de aplicações por danos decorrentes de ilícitos praticados por terceiros, questão jurídica com repercussão geral reconhecida que será apreciada pelo Supremo Tribunal Federal no julgamento dos Temas 533 e 987.

A expansão da internet nos últimos 20 anos foi impulsionada por promissoras startups que rapidamente se transformaram em gigantes da tecnologia graças ao escudo jurídico criado em 1996 por norma legal norte-americana que imunizou provedores de serem responsabilizados por conteúdos publicados por terceiros em suas plataformas [1]. A aludida norma permanece em vigor, não obstante seja alvo de severas críticas em debates sobre a necessidade de flexibilização da imunidade para coibir a falta de neutralidade política e os abusos recorrentes praticados por provedores.

No âmbito da jurisprudência dos tribunais brasileiros, prevaleceu a tese de que provedores de aplicações não têm o dever de fiscalização e controle prévios do material publicado em sua plataforma, mas respondem subjetiva e solidariamente com o ofensor por danos causados a seus usuários, se, notificados da existência de material reputadamente ilícito, não tomarem as providências necessárias para a sua imediata remoção. No que tange ao início da responsabilidade civil, surgiram duas vertentes: a notificação do próprio usuário, pelos canais oferecidos pelo provedor, ou a notificação judicial, após a provocação do Poder Judiciário por quem se considerasse ofendido.

O Superior Tribunal de Justiça adotou a sistemática conhecida internacionalmente como notice and take down, segundo a qual bastaria a ciência extrajudicial inequívoca do conteúdo impróprio, sem suspensão preventiva no prazo de 24 horas, para que o provedor se tornasse civilmente corresponsável com o ofensor pelos danos causados, em razão da omissão praticada. O conteúdo suspenso poderia voltar a ser disponibilizado posteriormente se o provedor concluísse pela legalidade da publicação.

A Lei nº 12.965/2014, que instituiu o denominado Marco Civil da Internet (MCI), seguiu a outra vertente ao estabelecer a responsabilidade subjetiva e subsidiária dos provedores de aplicações condicionada ao descumprimento de prévia e específica ordem judicial determinando a exclusão do conteúdo apontado como infringente [2]. O novo sistema adotado passou a ser o judicial notice and take down, com duas ressalvas [3]: I) a exposição pornográfica não consentida, que deve ser indisponibilizada pelo provedor, de forma diligente, após o recebimento de notificação extrajudicial nos termos da sistemática anterior; e II) a infração a direitos autorais ou a eles conexos, sujeita à regulamentação específica.

A exigência de reserva de jurisdição foi inserida no MCI com o objetivo retórico de proteger a liberdade de expressão e restringir a censura na internet, reservando o papel de censor exclusivamente ao Poder Judiciário. A preocupação era que provedores praticassem atos arbitrários de censura ao realizar valorações de caráter subjetivo na retirada de conteúdo reputado ilícito, capazes de gerar prejuízos ao livre fluxo de idéias e informações, insegurança jurídica e diminuição no grau de inovação da internet.

Não se atentou, entretanto, para as especificidades da dinâmica do mundo virtual, onde provedores praticam rotineiramente atos de censura, à guisa de moderação do fluxo de informações em suas comunidades virtuais. O advento do MCI em nada tolheu o empoderamento, em escala planetária, dos provedores de aplicações, que diante do vácuo regulatório se arrogaram a prerrogativa de exercer juízo discricionário sobre o debate público, como mediadores ou árbitros, com valores próprios e poderes para decidir se certo conteúdo ou conta ligados a determinado usuário devem ou não ser mantidos ativos.

O volume de material circulando em plataformas online cresce exponencialmente, assim como as triagens editoriais automáticas realizadas por algoritmos com vieses discriminatórios desenvolvidos por provedores, que decidem o que deve permanecer online ou ser retirado. O crivo dos moderadores não poupa nem figuras públicas eminentes: a livre manifestação de pensamento do presidente dos Estados Unidos, Donald Trump, foi recentemente censurada pelo provedor Twitter, que emitiu a advertência de que o conteúdo de seu discurso era inapropriado para a divulgação pública por pretensamente fazer apologia à violência [4]. Na mesma toada, o Twitter suspendeu permanentemente milhares de contas que, a seu juízo, propagavam fake news, excluiu postagens com conteúdo classificado como potencialmente prejudicial e rotulou, com etiquetas de advertência, informações publicadas por usuários sobre a pandemia de Covid-19, sob a justificativa de que a desinformação gera prejuízos ao debate na esfera pública [5].

A política de uso do YouTube, aplicável a todos os seus usuários, reserva ao próprio YouTube o direito de estabelecer juízos de valor subjetivos sobre o conteúdo que é apropriado, e faz referência aos seus termos de serviço e diretrizes de comunidade, no que diz respeito ao cometimento de infrações. O provedor também se reserva o direito de, a qualquer momento, sem aviso prévio, e a seu exclusivo critério, remover conteúdos e/ou cancelar conta de usuário por enviar materiais que violem os termos de serviço ou sejam considerados inadequados para a divulgação pública, com a exceção de atos infringentes aos direitos autorais, submetidos a regime especial de responsabilização.

A publicidade negativa e a indignação públicas causadas pelo suicídio da adolescente britânica Molly Russell, de 14 anos, após receber uma avalanche de imagens degradantes em sua conta no Instagram [6], fez com que a empresa matriz, Facebook, reconhecesse publicamente que não foi suficientemente diligente em seu dever de zelar pela integridade do conteúdo postado em sua plataforma, principalmente no que tange a especial vulnerabilidade dos usuários mais jovens. O algoritmo do provedor foi ajustado para censurar, em grande escala, imagens aviltantes de automutilação e incentivo ao suicídio. No período de abril a setembro de 2019, foram removidas 1,7 milhões de postagens do Instagram e 4,5 milhões do Facebook [7], e foi criado centro virtual de prevenção ao suicídio em ambas as plataformas digitais.

Conforme acima exemplificado, a reserva de jurisdição imposta pelo MCI constitui exemplo emblemático de wishful thinking, descolada da realidade dos fatos e ineficaz para atingir a finalidade proposta de impedir a censura privada na rede mundial de computadores. A medida representa retrocesso no sistema de proteção do consumidor na internet, cuja defesa foi enormemente dificultada sem justificativa legítima, de modo que não resiste a teste sumário de proporcionalidade: é manifestamente inadequada, desnecessária e causa ônus desproporcional para os usuários vitimados.

A ponderação de valores no debate sobre conteúdos ilícitos e liberdade de expressão na internet resulta na compreensão de que a moderação preventiva de materiais publicados por terceiros constitui atividade intrínseca ao serviço prestado por provedores de aplicações. O princípio da precaução descredencia a inércia e preconiza a atuação antecipada do provedor para preservar a natureza democrática e participativa da rede, com a adoção de medidas efetivas para garantir a integridade, segurança e pluralidade do ambiente digital. Esse imperativo de diligência e cuidado decorre da feição pública do serviço prestado por provedores de aplicações, bem como do fenômeno global da perda de protagonismo do Estado no manejo do poder de polícia no mundo virtual e o seu deslocamento, no plano prático, para atores privados, em razão de opção legislativa em prol de um ciberespaço sem empecilhos regulatórios à livre iniciativa e ao progresso tecnológico.

A supracitada legislação estadunidense que possibilitou o florescimento das empresas de tecnologia na internet tem a sua racionalidade traduzida em alegoria conhecida como a shield and a sword . Provedores foram equipados com um escudo para limitar a sua responsabilização jurídica por materiais gerados por terceiros e com uma espada para efetuar o policiamento privado de suas plataformas, através da moderação e remoção de conteúdos inadequados. Nesse ambiente institucional arejado e autorregulado, provedores têm o dever de colaborar com o Estado na prevenção e repressão de ilícitos, de modo a proporcionar aos usuários um ambiente de navegação saudável e seguro. Discursos de ódio, intolerância, incentivo ao suicídio, pedofilia, cyberbullying, disseminação de fake news, entre outros ilícitos graves, devem ser censurados por soluções de inteligência artificial integradas com moderadores humanos, em benefício do interesse público de prevenir a ocorrência de danos irreparáveis aos consumidores, sobretudo os mais vulneráveis.

O cerne da questão não é a inexorável censura, inerente à atividade discricionária de moderação de conteúdo em plataformas digitais. O ponto problemático é a falta de transparência na eleição de critérios, adoção de procedimentos e consolidação de informações pertinentes à remoção de conteúdos e filtragens editoriais unilaterais, o que torna impossível verificar se as intervenções privadas no discurso público foram efetuadas com a menor restrição possível ao debate democrático. Em que pese o seu relevante interesse público, esses dados não são disponibilizados pelos provedores de aplicações, que atuam na esfera pública livremente de forma nebulosa, sem prestar contas e sem a necessária accountability .

É conveniente recordar que o modelo de negócios dos provedores de aplicações extrapola a mera intermediação e abrange a exploração comercial de conteúdos publicados por usuários, através da venda de anúncios e direcionamento de público-alvo para determinado canal monetizado, o que gera o pagamento de royalties proporcionais ao volume de visualizações. Nessa hipótese, há conflito entre o dever do provedor de minimizar danos causados aos usuários e o seu interesse privado em maximizar lucros com o conteúdo exibido em sua plataforma. Ao receber benefícios financeiros diretos da ação infringente, o provedor não tem incentivos para agir com o esperado rigor na exclusão de material reputado ilícito.

O cenário ora delineado é propenso a externalidades negativas, como a prestação de serviço deficiente, geradora de danos irreparáveis aos usuários da internet vitimados pela permanência e propagação do conteúdo ilícito, sem a devida responsabilização. A exploração comercial da rede sujeita as relações de consumo dela advindas ao Código de Defesa do Consumidor (CDC), que constitui um dos fundamentos disciplinadores do uso da internet no Brasil [8]. A sistemática estabelecida pelo MCI, que impõe a judicialização de todos os conflitos, elimina conquistas importantes estabelecidas na legislação consumerista que deveria corroborar. Condicionar a responsabilização dos provedores à prévia medida judicial específica aniquila o direito básico do consumidor de prevenção e reparação de danos com a facilitação da defesa de seus direitos. A proteção ao consumidor deve ser efetivada de forma ágil e eficaz, através da instalação de sistema extrajudicial alternativo de solução consensual de controvérsias entre provedores e usuários da internet.

Merece ser aprimorada, outrossim, a sistemática atual de imputar-se ao usuário vitimado o ônus de indicação da localização inequívoca dos conteúdos infringentes a serem removidos, sob pena de nulidade [9]. Organizações criminosas dispõem de estrutura para republicar o material ilícito em diferentes e sucessivos locais virtuais, com o auxílio de milícias de robôs e perfis falsos, que relegam o usuário hipossuficiente ao total desamparo. O anacrônico paradigma binário de localizadores específicos up or down deve ser substituído por soluções alternativas dinâmicas e efetivas, ajustadas às peculiaridades de cada caso concreto, em respeito ao princípio da reparação integral do consumidor.

O papel do Poder Judiciário não deve ser banalizado com a atribuição da tarefa impraticável de aferir a legalidade de cada material publicado na internet, mas, sim, direcionado à função a que está constitucionalmente vocacionado. Ao Judiciário cabe atuar, em última instância, e de forma excepcional, como regulador da liberdade de expressão na internet, através do judicial review de decisões extrajudiciais dos provedores, e da tutela coletiva do direito fundamental à comunicação interativa em um ambiente digital íntegro, seguro e plural, no patamar civilizatório adequado ao desenvolvimento da personalidade e exercício da cidadania na era digital.

Topo da página

 é juíza federal no Rio de Janeiro.

Revista Consultor Jurídico, 14 de junho de 2020, 17h17

Comentários de leitores

1 comentário

Elogio

Marcus Ferreira Campos (Advogado Assalariado - Trabalhista)

Que artigo esclarecedor e bem escrito! Parabéns!

Comentários encerrados em 22/06/2020.
A seção de comentários de cada texto é encerrada 7 dias após a data da sua publicação.