STF preenche vazio legislativo e redefine responsabilidade das big techs
1 de julho de 2025, 11h18
A explosão da comunicação digital trouxe ao direito desafios sem precedentes. A circulação massiva de informações nas redes sociais e plataformas tecnológicas, muitas vezes impulsionadas por algoritmos opacos, evidenciou um desequilíbrio estrutural entre liberdade de expressão, desinformação e violação de direitos fundamentais. Em meio à omissão reiterada do Congresso em legislar sobre o tema, o STF assumiu protagonismo ao decidir, com repercussão geral, que as plataformas digitais podem ser responsabilizadas por conteúdos de terceiros mesmo na ausência de ordem judicial, em determinadas hipóteses.

OABSP promove oficina sobre uso prático da IA no Direito, em Campinas
A decisão marca uma inflexão no modelo jurídico brasileiro de regulação da internet, ao romper com a blindagem conferida pelo artigo 19 do Marco Civil da Internet, aproximando-se de modelos regulatórios híbridos adotados internacionalmente. Mais que um posicionamento técnico, o julgamento explicita uma tensão estrutural: a judicialização da omissão legislativa e os riscos do vácuo normativo em matéria de comunicação digital.
Fundamentação e alcance da decisão do STF
Em 26 de junho de 2025, o Supremo Tribunal finalizou o julgamento dos Recursos Extraordinários nº 1.037.396 e 1.057.258, declarando, por maioria, a inconstitucionalidade parcial do artigo 19 da Lei nº 12.965/2014, o qual condicionava a responsabilização civil das plataformas digitais à existência de ordem judicial prévia.
A tese fixada pela Corte estabelece que as plataformas serão responsabilizadas nos seguintes casos, independentemente de ordem judicial:
- Conteúdos patrocinados ou impulsionados, presumindo-se o conhecimento da plataforma;
- Publicações que veiculem conteúdos gravemente ilícitos, como incitação ao ódio, racismo, violência política, pornografia infantil, induzimento ao suicídio e atos antidemocráticos.
Para esses casos, a omissão da plataforma em removê-los poderá ser considerada falha sistêmica e ensejar responsabilidade civil, salvo demonstração de diligência técnica e atuação tempestiva.
Nos demais casos, como crimes contra a honra, prevalece a necessidade de provocação judicial ou notificação formal, ainda que sem decisão judicial em sentido estrito. Conteúdos idênticos a outros já removidos judicialmente também deverão ser retirados por simples notificação.
Crítica normativa e social: entre proteção de direitos e o risco do arbítrio
O STF teve mérito ao reconhecer a insuficiência do modelo atual, pois o artigo 19, ao exigir ordem judicial para a responsabilização, criava um escudo quase absoluto às big techs. Contudo, há riscos evidentes: a substituição da regulação democrática por decisões judiciais, ainda que fundamentadas, compromete o princípio da legalidade estrita e abre brechas para o excesso de judicialização da comunicação pública.

Ao mesmo tempo em que impõe deveres de compliance, transparência e moderação ativa às plataformas, a decisão exige do Judiciário e da sociedade mecanismos claros para impedir abusos — sejam eles políticos, econômicos ou ideológicos. Não há liberdade sem responsabilidade, mas tampouco há democracia com censura privada, travestida de filtragem algorítmica.
Omissão legislativa e necessidade de um marco democrático
O STF cumpriu seu papel constitucional diante da omissão do Congresso. No entanto, não há substituto democrático para o processo legislativo. A Corte, ao reconhecer esse vazio normativo, convocou o Parlamento à responsabilidade regulatória, especialmente no tocante à criação de um modelo que equilibre liberdade, segurança jurídica e proteção de direitos.
Há projetos em tramitação, como o PL nº 2.630/2020 (Lei das Fake News) e o PL nº 4.474/2024, que avançam em alguns aspectos, mas ainda carecem de consensos técnicos e políticos.
O desafio brasileiro é construir uma regulação híbrida, que:
- garanta devido processo e transparência às vítimas de abusos online;
- responsabilize economicamente as plataformas com base em critérios claros;
- assegure filtros democráticos contra a censura privada;
- e promova uma cultura digital voltada à cidadania, não ao lucro cego.
Comparações internacionais: o que (não) copiar
A União Europeia, com o Digital Services Act, criou um modelo sofisticado de governança digital, exigindo relatórios de moderação, due diligence e sanções escalonadas. Os EUA, por outro lado, ainda mantêm a tradicional proteção conferida pela Section 230 do Communications Decency Act, que praticamente isenta plataformas de responsabilidade por conteúdos de terceiros.
A Índia, em 2021, adotou regras duras de responsabilização e exigência de remoção ágil, mas enfrenta críticas quanto ao uso político das plataformas.
O Brasil precisa de um modelo próprio — baseado na Constituição — que promova liberdade com responsabilidade, sem cair no extremo da censura estatal ou no laissez-faire corporativo.
Conclusão
A decisão do STF, embora necessária, é sintomática: revela a fragilidade do nosso pacto legislativo em temas cruciais da era digital. O Judiciário não pode continuar a arbitrar sozinho os limites da liberdade de expressão e do discurso online. O Congresso deve assumir seu papel, ouvindo a sociedade civil, os especialistas e a academia.
É urgente construir uma legislação sólida, democrática e tecnicamente fundamentada. O Brasil precisa parar de improvisar na regulação digital — e começar a legislar com responsabilidade. O futuro da democracia depende, cada vez mais, da coragem institucional de enfrentar o poder das plataformas.
_________________________
Referências bibliográficas
BRASIL. Supremo Tribunal Federal. STF define parâmetros para responsabilização de plataformas por conteúdos de terceiros. Notícias STF, 26 jun. 2025. Disponível aqui.
MIGALHAS. STF: redes respondem por posts mesmo sem ordem judicial. Migalhas, 26 jun. 2025. .
INFO MONEY. Responsabilidade de redes sociais: entenda o que o STF decidiu em julgamento. InfoMoney, 26 jun. 2025. Disponível aqui.
EUROPEAN UNION. Digital Services Act (DSA). Regulation (EU) 2022/2065 of the European Parliament and of the Council, 19 Oct. 2022.
UNITED STATES. Communications Decency Act – Section 230. Public Law No. 104-104, 1996.
Encontrou um erro? Avise nossa equipe!