Cerco às plataformas

Tese do STF cobre brechas contra big techs, mas deixa dúvidas práticas

Autor

1 de julho de 2025, 8h52

Fixada pelo Supremo Tribunal Federal na semana passada, a tese que alterou regras do Marco Civil da Internet cobriu brechas que isentavam as plataformas de responsabilidade sobre publicações de terceiros, mas deixou dúvidas sobre a aplicação prática das novas normas. A avaliação é de especialistas em Direito Digital consultados pela revista eletrônica Consultor Jurídico.

Os ministros decidiram, por 8 votos a 3, que os provedores passarão a responder por danos decorrentes de conteúdos veiculados pelos usuários mesmo que não haja ordem judicial prévia para que sejam removidos. Antes do julgamento, os provedores estavam livres dessa responsabilização graças ao artigo 19 do Marco Civil, que foi declarado parcialmente inconstitucional.

Sessão de julgamento do STF sobre regulação do artigo 19 do Marco Civil da Internet

Especialistas avaliam que a lei precisa de atualizações porque está em vigor há mais de dez anos e tem falhado em coibir desinformação e crimes cibernéticos. Para os analistas, a tese do Supremo resolve parte desses problemas, mas deixa indefinições que abrem brechas para censura indevida, trazem risco de aumento da judicialização e atingem pequenas e médias empresas de maneira desproporcional.

O que mudou

Responsabilização civil —As plataformas poderão ser responsabilizadas na esfera civil se forem notificadas extrajudicialmente para remover determinado conteúdo e deixarem de agir. Ou seja, elas poderão ser condenadas a pagar indenização por danos morais, por exemplo, se não removerem determinado conteúdo ofensivo após terem sido notificadas por um usuário. Antes da decisão do Supremo, as empresas só eram obrigadas a excluir a publicação se houvesse uma ordem judicial específica;

Exceção — Em casos de crimes contra a honra (calúnia, injúria ou difamação), ainda será preciso uma ordem judicial para que as plataformas removam o conteúdo. Mas se um conteúdo ofensivo já foi reconhecido por decisão judicial, os provedores deverão apagar “replicações idênticas” por meio de notificações de usuários, sem a necessidade de novas decisões judiciais para cada postagem;

Dever de cuidado — Para determinados crimes classificados como gravíssimos, as plataformas precisarão agir de forma proativa para evitar que os conteúdos sequer sejam publicados ou circulem livremente. Isso se aplica aos seguintes delitos: atos antidemocráticos, terrorismo, apologia ao suicídio ou automutilação, pornografia infantil, tráfico de pessoas, racismo, homofobia e violência contra a mulher. Nesses casos, as empresas terão de adotar medidas para prevenir a expansão do material ou “promover a indisponibilização imediata” deles, sob pena de serem responsabilizadas por “falha sistêmica” na moderação;

Responsabilidade presumida — Para dois tipos de publicação, os provedores terão “responsabilidade presumida”, ou seja, deverão remover o material indevido mesmo sem serem notificados. Um desses casos é o de anúncios ou impulsionamento pago de publicidade: presume-se que a plataforma deve controlar o conteúdo porque é ela mesma que aprova previamente as propagandas. A outra hipótese é a de disparos em massa por meio de robôs automatizados, os chatbots. Nesse caso, os provedores só ficarão livres de responsabilidade se comprovarem que atuaram “em tempo razoável” para bloquear o conteúdo;

Medidas estruturais — Segundo a tese do STF, as plataformas precisarão disponibilizar canais de denúncia claros, com ampla divulgação, para que usuários possam notificar a circulação de conteúdos criminosos. Conforme a decisão, esse sistema de notificações deverá incluir um “devido processo” para o recebimento das denúncias, e as plataformas terão de publicar relatórios anuais de transparência em relação às providências tomadas.

Os avanços

Para os especialistas ouvidos pela ConJur, a tese fixada pelo STF tem o mérito de esclarecer alguns deveres das plataformas, especialmente as chamadas big techs. Segundo eles, o Marco Civil da Internet não trouxe obrigações rígidas para que as empresas ajam diante das denúncias de usuários que identificam conteúdos criminosos ou são atingidos por eles.

“Ferramentas totalmente eficazes para a responsabilização das plataformas, de fato, nós não temos no Brasil hoje. O Marco Civil é eficaz dentro do seu cenário, mas já se passaram mais de dez anos desde sua aprovação, e muita coisa mudou no contexto das plataformas e redes sociais. Considero louvável a decisão no que se refere a discurso de ódio, pornografia infantil e vazamento de conteúdo íntimo, por exemplo”, afirma a advogada Gisele Truzzi, especialista em Direito Digital e CEO do Gisele Truzzi Tech Legal Advisory.

“A partir de agora, notificações extrajudiciais claras e fundamentadas, vindas de usuários, vítimas ou entidades civis, são suficientes para que as plataformas tenham o dever jurídico de agir”, observa o advogado Alexandre Atheniense, especialista em Direito Digital pela Harvard Law School.

Segundo ele, a decisão do STF adota a premissa de que as provedoras de tecnologia devem ter um papel mais ativo no controle de conteúdos criminosos. “A prova de diligência passa a ser ônus da própria empresa, que deverá demonstrar que atuou com velocidade, boa-fé e mecanismos eficazes de moderação.”

As lacunas

Os estudiosos avaliam que há questões em aberto sobre como as novas regras serão aplicadas. Segundo Gisele Truzzi, a decisão de remover ou não determinado conteúdo está sujeita a critérios subjetivos, e a tese do STF não estabeleceu balizas claras.

“A aplicação desses conceitos nem sempre é clara para um leigo ou para um administrador de plataforma, dependendo do contexto. A obrigação de remover qualquer material com uma simples notificação, ou de ter o dever de remover prontamente ao identificar um conteúdo assim, sem maior critério, gera um precedente para que qualquer tipo de conteúdo saia do ar, inclusive matérias jornalísticas. Isso cria um cenário de insegurança jurídica, política e até social”, diz ela.

Para a advogada, uma das principais falhas da decisão foi não ter feito diferenciação entre as grandes plataformas, como Google e Meta — controladora do Facebook e do Instagram —, e pequenas e médias empresas, como startups e mantenedoras de sites específicos.

“A decisão do STF iguala todas a plataformas, que terão as mesmas obrigações sem ter as mesmas condições de gerenciamento de conteúdo. Moderar as publicações é muito custoso, e isso gera um ônus desproporcional para os pequenos. Seria preciso criar um sistema de gradação de responsabilidade, a exemplo do que se faz na Europa, sob risco de ampliarmos o monopólio das big techs.

A especialista também aponta falta de clareza sobre o “tempo razoável” para que os provedores removam conteúdo criminoso em anúncios, ou o que configura “falha sistêmica” no controle de publicações com ilícitos graves. “Vários pontos da tese dependem da interpretação e da realidade de cada caso concreto. Não temos um norteador, uma régua para essas situações.”

Na opinião de Alexandre Atheniense, o STF firmou balizas que podem ser suficientes para resolver boa parte das situações, mas existem pontos descobertos que podem levar a um aumento da judicialização.

“Há dois vetores. Por um lado, a decisão permite a responsabilização mediante notificação extrajudicial clara, o que torna dispensável recorrer ao Judiciário para a maioria dos ilícitos. No entanto, a decisão do Supremo recorre a conceitos jurídicos indeterminados, o que tende a gerar disputas sobre prazos, padrões técnicos e reinterpretação de contextos.”

Clique aqui para ler o resultado do julgamento do STF
Clique aqui para ler a íntegra da tese fixada
Clique aqui para ler a explicação do STF sobre as principais mudanças
RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533)

Autores

Encontrou um erro? Avise nossa equipe!