Marco da Internet

Nas mãos do Supremo, a responsabilidade de provedores por conteúdos de terceiros

Autor

28 de maio de 2022, 8h43

O Supremo Tribunal Federal vai estabelecer no próximo mês o alcance da responsabilidade dos provedores de serviços de internet — como redes sociais, sites, aplicativos ou qualquer empresa que disponibilize conteúdo aos internautas — por publicações de terceiros em suas plataformas.

123RF
Lei prevê necessidade de ordem judicial para a responsabilização cível do provedor123RF

Os ministros discutirão se os provedores devem fiscalizar tudo o que é publicado e pagar indenização caso não retirem do ar conteúdos lesivos de terceiros, mesmo sem intervenção do Poder Judiciário. O julgamento, de repercussão geral, está previsto para o próximo dia 22.

Nessa controvérsia, um lado entende que a remoção antecipada de conteúdo caracteriza censura. Já o outro considera que a manutenção do material lesivo traz prejuízos aos usuários e aumenta os pedidos de indenização contra as plataformas.

Dispositivo legal
Estará em jogo no STF o artigo 19 do Marco Civil da Internet, que exige ordem judicial prévia de exclusão de conteúdo para que o provedor seja responsabilizado pelos danos decorrentes de atos ilícitos praticados por terceiros. Ou seja, de acordo com a lei, os provedores só respondem pelos danos gerados por terceiros caso desobedeçam eventual decisão da Justiça e não removam o conteúdo infringente.

Um dos recursos apresentados ao Supremo discute a constitucionalidade dessa regra. Já o outro debate se a empresa tem ou não o dever de fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo ou nocivo. Ambos foram apresentados contra acórdãos que afastaram a regra do Marco Civil e responsabilizaram os provedores — Facebook e Google, respectivamente.

Foi usado como argumento para essas decisões, entre outros pontos, que a retirada de conteúdo somente após ordem judicial isentaria os provedores "de toda e qualquer responsabilidade indenizatória" e, assim, a internet se tornaria uma "terra sem lei". Além disso, antes de acionarem a Justiça, os usuários ficariam suscetíveis a abusos contra sua liberdade de expressão.

O julgamento diz respeito principalmente às redes sociais, nas quais as postagens abusivas geralmente se relacionam a fake news ou discurso de ódio. Mas também afeta, por exemplo, portais de notícias, plataformas de marketplace e serviços de hospedagem de sites.

Reprodução
Recursos no STF se referem a conteúdos
de terceiros considerados danosos

Regra é regra
Segundo Adriano Mendes, advogado da Associação Brasileira de Provedores de Hospedagem (Abrahosting), "mesmo que um provedor possa remover uma página ou conteúdo por infração aos seus termos de uso, a responsabilidade jurídica dos provedores sobre um conteúdo específico só passa a existir depois que ele é notificado por uma autoridade competente e, por alguma razão, decide não cumprir a ordem". Ou seja, por enquanto, entre os provedores, a praxe é seguir o Marco Civil.

Há, porém, a exceção legal para conteúdos de nudez e ato sexual privado. "O indivíduo pode denunciar diretamente à plataforma, que deverá remover o referido conteúdo. Do contrário, se tornará corresponsável, podendo ser responsabilizada civilmente", explica Mendes.

O advogado afirma que a polêmica existe porque a remoção depende de uma análise subjetiva, e uma das partes sempre se sentirá prejudicada.

No entanto, para ele, a responsabilização seria incoerente: "É como condenar a montadora do veículo em todos os casos em que houver um acidente de carro. A responsabilidade deve ser de quem publica ou é o dono do conteúdo, não de quem o hospeda".

Modelo adequado
Na opinião do defensor público Rodrigo Nitrini, doutor em Direito pela USP e autor de um livro sobre remoção de conteúdo nas redes sociais, a regra do artigo 19 é um modelo acertado para o Direito brasileiro e para a defesa da liberdade de expressão no ambiente digital.

Antes do Marco Civil da Internet, a plataforma era responsável a partir da notificação do usuário quanto ao conteúdo. Isso ainda ocorre em outros países, nos quais a responsabilidade começa quando o provedor é notificado. É o chamado modelo do notice and takedown. Nos EUA, esse sistema é usado apenas para casos de direitos autorais. De maneira geral, as plataformas têm imunidade de responsabilização civil pelo conteúdo postado pelos usuários.

De acordo com Mendes, esse sistema tem um lado negativo. Normalmente, políticos e pessoas poderosas conseguem a remoção de qualquer conteúdo devido ao aparato jurídico que possuem. Nitrini ainda indica que uma simples notificação do governo para uma plataforma poderia gerar responsabilização civil, sem análise por um Judiciário independente.

Everythingpossible
Plataformas moderam diariamente
grande quantidade de conteúdo Everythingpossible

Já o Marco Civil, segundo Mendes, também tem seu lado negativo: tudo precisa ser judicializado, o que custa mais caro e leva mais tempo.

Fiscalização
Nos recursos apresentados ao STF, a Procuradoria-Geral da República já opinou que os provedores não devem ter a obrigação de monitorar todo o conteúdo que trafega na sua rede interna, pois isso seria um ônus excessivo e ainda permitiria arbitrariedades.

Mendes concorda com esse posicionamento e ressalta que tal fiscalização é "impossível de ser feita na prática". No YouTube, por exemplo, a cada segundo os usuários publicam centenas de minutos de vídeos.

Moderação
Isso está atrelado a outro fator: mesmo com a regra do Marco Civil, as empresas não deixam de analisar e moderar os conteúdos postados pelos usuários. Elas podem remover o conteúdo antes da decisão judicial se verificarem que ele vai contra suas políticas e seus termos de uso.

Segundo Nitrini, há um grande desconhecimento do público em geral, e do próprio Judiciário, sobre o sistema de moderação de conteúdo nas plataformas: "Muitas vezes partem da premissa de que, se não tiver uma ordem judicial, as plataformas não vão fazer nada. E não é assim que as coisas funcionam".

Ocorre, na verdade, o inverso. Para cada decisão judicial que avalia um conteúdo no Facebook, a própria Meta (empresa responsável pela rede social) avalia mais de um milhão de conteúdos por dia. "Os casos remetidos para o Judiciário são muito poucos, uma quantidade inexpressiva diante dos milhões de conteúdos que são revisados diariamente pelas plataformas", diz Nitrini.

Istockphoto
Julgamento do STF afeta redes sociais, sites e serviços de hospedagens entre outros

A necessidade de ordem judicial para a responsabilização foi criada para evitar um incentivo desproporcional. Havia um receio de que, sem tal regra, as plataformas adotariam uma postura cautelosa e retirariam muito conteúdo do ar. Com o artigo 19 do Marco Civil, os provedores podem tomar decisões autônomas de moderação sem que elas sejam distorcidas pelo risco de pagar indenização.

Melhorias
As empresas moderam conteúdo a todo momento, mas isso não quer dizer que elas moderem bem e que não haja incoerências. Por esse motivo, todas as decisões tomadas nesse processo são passíveis de revisão pelo Judiciário.

Atualmente, o Marco Civil da Internet não dispõe sobre a atividade de moderação de conteúdo pelas plataformas. Nitrini considera que seria necessária uma atualização da legislação para trazer direitos dos usuários nessa área.

Segundo ele, ainda é possível debater as melhores maneiras de moderar conteúdo, as melhores salvaguardas, formas de garantir um devido processo digital, o direito de recurso na plataforma e outros detalhes mais.

RE 1.037.396
RE 1.057.258

Autores

Tags:

Encontrou um erro? Avise nossa equipe!