STF tem mais dois votos por responsabilização de big techs por publicações de usuários
25 de junho de 2025, 19h14
O Plenário do Supremo Tribunal Federal teve nesta quarta-feira (25/6) mais dois votos para declarar a inconstitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014) e estabelecer que as plataformas digitais podem ser responsabilizadas por conteúdos de usuários.

Alexandre de Moraes disse que plataformas devem ser responsabilizadas por abusos
Até o momento, o placar está 8 a 2 pela inconstitucionalidade (total ou parcial) do dispositivo. Os ministros Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Alexandre de Moraes e Cármen Lúcia votaram pela responsabilização das big techs que não removerem publicações ofensivas.
Os ministros André Mendonça e Edson Fachin votaram pela validade do artigo 19, faltando apenas o voto do ministro Nunes Marques. O julgamento será retomado na sessão desta quinta (12/6).
O artigo 19 do Marco Civil da Internet condiciona a responsabilidade civil das plataformas por danos a terceiros à necessidade de ordem judicial prévia. A prevalecer a maioria já formada, as plataformas terão de fiscalizar os conteúdos publicados e retirá-los do ar, mesmo sem intervenção do Judiciário.
Também são discutidas a possibilidade de responsabilização de plataformas e provedores por conteúdos gerados por usuários; a possibilidade de remoção de conteúdo criminoso a partir de notificação extrajudicial; e a possibilidade de bloqueio de aplicativos.
Inconstitucionalidade do artigo 19
O ministro Dias Toffoli, relator de uma das duas ações que discutem a matéria, propôs um rol taxativo de conteúdos que levarão à responsabilidade civil objetiva das plataformas caso o material não seja excluído por elas mesmas, independentemente de notificação extrajudicial ou decisão judicial determinando a exclusão.
Já na visão do ministro Luiz Fux, relator da outra ação, a partir do momento em que são notificadas sobre conteúdos ilícitos, as plataformas digitais devem excluir as publicações, independentemente de ordem judicial. Além disso, as empresas devem monitorar postagens claramente ilegais, que contenham discurso de ódio, racismo, pedofilia, incitação à violência ou apologia a golpe de Estado. Os dois relatores votaram pela inconstitucionalidade do artigo 19.
Barroso, Dino, Zanin, Gilmar, Alexandre e Cármen manifestaram-se pela inconstitucionalidade parcial do dispositivo. Para eles, as companhias só devem excluir as publicações após ordem judicial, mas isso desde que melhorem seus sistemas de monitoramento das redes.
Os oito ministros também entendem que é obrigação das plataformas impedir, por si sós, a circulação de publicações criminosas. Houve divergências quanto aos delitos que seriam abrangidos por esse dever.
Votos desta quarta
Na sessão desta quarta, Alexandre defendeu a responsabilização solidária das plataformas digitais por conteúdos impulsionados, divulgados por contas inautênticas ou que não forem removidos mesmo sendo ilícitos.
Para o ministro, as redes sociais devem ser equiparadas legalmente aos meios de comunicação e submetidas a obrigações como transparência algorítmica, sede obrigatória no Brasil e mecanismos de prevenção semelhantes aos previstos na legislação da União Europeia.
Cármen Lúcia, por sua vez, votou pela inconstitucionalidade parcial do artigo 19, com interpretação que permita a responsabilização das plataformas não apenas em casos de crimes contra a honra, mas também quando houver ataques ao Estado democrático de Direito.
Conforme a magistrada, a responsabilidade das plataformas decorre do descumprimento de ordem judicial, mantendo-se a exigência de decisão como regra, mas admitindo-se a responsabilização nos casos de inércia diante de determinações legais.
Já Fachin votou pela constitucionalidade dos artigos 19 e 21 do Marco Civil da Internet, sem propor qualquer tipo adicional de regulamentação.
Modelos diferentes
Barroso entendeu que não pode haver responsabilidade objetiva das redes por conteúdos de terceiros, mas propôs dois modelos de responsabilização. O primeiro trata de conteúdos específicos, e a notificação extrajudicial é a regra para crimes em geral. Nesses casos, a plataforma pode ser responsabilizada por não retirar conteúdos após ser notificada. Ele colocou como exceções, no entanto, os crimes contra a honra, em que a sistemática adotada deve continuar sendo a do artigo 19, em que só pode haver responsabilização se houver descumprimento de ordem judicial pelas plataformas.
Já o segundo modelo de responsabilização leva em conta o chamado “dever de cuidado”, em contraposição à responsabilidade objetiva proposta por Toffoli. No dever de cuidado, as plataformas ficam obrigadas a empenhar todos os esforços para prevenir e mitigar riscos sistêmicos criados ou potencializados nas redes sociais.
Dessa forma, prosseguiu Barroso, as plataformas devem atuar proativamente, de ofício, para que seus ambientes estejam livres de conteúdos “gravemente nocivos”, em especial no que se refere a pornografia infantil; crimes graves contra crianças ou adolescentes; induzimento, instigação ou auxílio ao suicídio ou à automutilação; tráfico de pessoas; atos de terrorismo; e abolição violenta do Estado democrático de Direito e golpe de Estado.
Flávio Dino defendeu a adoção de um modelo segmentado para a responsabilização de plataformas digitais na remoção de conteúdos ilícitos. Segundo o ministro, conteúdos evidentemente ilegais poderiam ser retirados mediante notificação extrajudicial. Já nos casos de crimes contra a honra, a remoção dependeria de ordem judicial.
O magistrado também sustentou a responsabilização direta das plataformas por atos próprios, como o impulsionamento pago e a manutenção de perfis inautênticos.
Dino sugeriu ainda a implementação de deveres procedimentais mínimos, a promoção de educação digital e a exigência de relatórios de transparência por parte das plataformas, sem a necessidade de criação de um novo órgão regulador.
Cristiano Zanin e Gilmar Mendes também votaram pela responsabilidade das plataformas digitais. Zanin reconheceu a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet por considerar que a exigência de ordem judicial para a remoção de conteúdos oferece proteção insuficiente diante da rápida disseminação de material ilícito.
O ministro propôs um regime diferenciado, com base na natureza do conteúdo: remoção por notificação extrajudicial nos casos manifestamente ilícitos, ordem judicial para casos complexos, além da adoção de deveres de cuidado, regras procedimentais e modulação dos efeitos da decisão do Supremo.
Gilmar também apontou a superação do modelo atual, classificando o artigo 19 como ultrapassado por ignorar a atuação ativa das plataformas na curadoria de conteúdo. O decano do Supremo sugeriu a criação de quatro regimes distintos de responsabilidade, conforme o grau de interferência das plataformas nos conteúdos.
Entre os pontos de sua proposta estão a presunção de responsabilidade em publicações patrocinadas e a responsabilização direta das plataformas em casos mais graves. Gilmar defendeu ainda a imposição de obrigações procedimentais e a atribuição da fiscalização à Autoridade Nacional de Proteção de Dados (ANPD).
Voto divergente
André Mendonça divergiu dos relatores e votou pela constitucionalidade do artigo 19 do Marco Civil da Internet. O magistrado entendeu que “é inconstitucional a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos”.
Além disso, segundo ele, uma decisão para exclusão de uma postagem nas redes sociais precisa seguir procedimentos detalhados e uma “fundamentação específica”.
“As plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro”, disse Mendonça.
Casos concretos
O tribunal analisa conjuntamente duas ações. No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.
RE 1.037.396
RE 1.057.258
Encontrou um erro? Avise nossa equipe!