Inconstitucionalidade do artigo 19 do Marco Civil e risco de censura no ambiente digital
5 de julho de 2025, 9h19
No final da década de 1990, o ciberativista John Perry Barlow redigiu a célebre “Declaração de Independência do Ciberespaço”, um manifesto idealista que repudiava a intervenção estatal no ambiente digital e proclamava uma internet autônoma, livre das amarras jurídicas dos “velhos governos do mundo físico”. Tal visão, embora utópica em essência, pavimentou um imaginário distópico: o de que as plataformas digitais seriam espaços anárquicos, resistentes à lei, habitados por grandes corporações que, sob o manto da neutralidade, se recusam a assumir responsabilidades. Esse pano de fundo tem influenciado, ainda hoje, a forma como se interpreta o papel das aplicações de internet na mediação de conteúdos de terceiros.

Esse imaginário encontra eco no recente julgamento do STF (Supremo Tribunal Federal) sobre a inconstitucionalidade do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014), norma que até então regula a responsabilização de plataformas por conteúdo gerado por terceiros. O artigo, inspirado na Seção 230 do Communications Decency Act norte-americano, estabelece um equilíbrio sensato: a aplicação de internet só pode ser responsabilizada civilmente caso, após ordem judicial específica para remoção de determinado conteúdo, ela se omitir no cumprimento.
A lógica do dispositivo é clara e civilizatória: promove a liberdade de expressão, protege o debate público e impede que empresas de tecnologia sejam transformadas em censores privados. Ao vincular a responsabilidade à inércia diante de decisão judicial, o artigo 19 garantia um filtro jurídico objetivo — o crivo do Judiciário — antes de impor sanções às plataformas. Essa estrutura, ao contrário de criar um “porto seguro” absoluto, como alguns alegam, preservava o devido processo legal e impedia a corrosão silenciosa da liberdade de expressão por meio de remoções arbitrárias ou preventivas.
Mudança que compromete fundamentos do direito civil
O julgamento do Supremo sobre o artigo 19 do Marco Civil da Internet precisa ser analisado para além de seus efeitos imediatos. Em essência, o STF deslocou o eixo da responsabilidade civil das plataformas, substituindo uma lógica de neutralidade qualificada — ancorada na ordem judicial — por uma expectativa de vigilância proativa e contínua por parte das empresas. Essa mudança, embora travestida de proteção de direitos fundamentais, compromete os próprios fundamentos do direito civil e do devido processo legal.
A retórica de que o artigo 19 ofereceria uma “blindagem” às big techs ignora os objetivos reais da norma: não se trata de proteger empresas, mas sim de proteger o debate público em ambientes digitais. Ao obrigar a intermediação do Poder Judiciário para a responsabilização, o legislador brasileiro reconheceu que não há um consenso fácil sobre o que é ou não ilícito em matéria de expressão. A judicialização, nesses casos, não é um obstáculo — é uma garantia.
É preocupante o fato de que a decisão do STF não tenha estabelecido critérios claros e objetivos sobre o que configura um conteúdo “manifestamente ilícito” cuja remoção possa ser exigida independentemente de ordem judicial. Essa indefinição abre margem para que haja uma pressão generalizada sobre plataformas, que tenderão a adotar políticas mais conservadoras, removendo conteúdos por receio de litígios, mesmo que estes não sejam ilegais. A consequência inevitável é a chamada “censura privada por medo”, nociva à democracia.
Papel das plataformas como arenas
Outro ponto sensível ignorado no julgamento é o papel das plataformas como arenas públicas contemporâneas. A analogia com meios de comunicação tradicionais — como jornais ou emissoras — é falha, pois redes sociais e fóruns digitais operam por meio da livre circulação de conteúdo gerado por usuários, muitas vezes anônimos ou pseudonimizados. Imputar às plataformas o dever de policiar tudo o que circula sob pena de responsabilização civil é impor a elas um ônus desproporcional e antidemocrático.

É importante ressaltar que, antes mesmo do julgamento, as principais aplicações da internet já vinham implementando políticas de moderação de conteúdo e canais de denúncia, baseadas tanto em seus termos de serviço quanto em normativos internacionais. A mudança que ocorrerá com o julgamento pelo STF não diz respeito à existência ou não de mecanismos de controle, mas à forma como o direito brasileiro trata a responsabilização posterior por conteúdos de terceiros — e a nova postura institucional rompe com o modelo garantista que vinha sendo adotado.
Vale lembrar que o Marco Civil da Internet é uma das legislações mais elogiadas no cenário internacional justamente por buscar um equilíbrio entre direitos fundamentais, segurança jurídica e inovação tecnológica. A inconstitucionalidade do artigo 19 compromete esse equilíbrio, pois priorizará uma lógica de responsabilização imediata em detrimento da análise judicial individualizada dos casos. Trata-se de uma inversão dos valores que estruturaram o próprio nascimento da internet como espaço livre e democrático.
Remoção de conteúdo íntimo
A exceção prevista no artigo 21 do Marco Civil, que permite a remoção de conteúdo íntimo ou de nudez não consentida sem ordem judicial, mostra que o legislador brasileiro não se omitiu diante de situações urgentes. Pelo contrário, estabeleceu uma baliza prudente: para violações graves e autoevidentes, como a exposição da intimidade, há instrumentos extrajudiciais. Para os demais casos, que exigem ponderação, o Judiciário é o árbitro adequado. Desconsiderar isso é perder a dimensão da proporcionalidade no trato com os direitos digitais.
O argumento de que a demora judicial inviabiliza a proteção de direitos fundamentais também não se sustenta integralmente. O ordenamento jurídico brasileiro prevê diversos mecanismos céleres para reagir a violações online, como a tutela de urgência e o acesso simplificado aos juizados especiais cíveis. A crítica correta seria em direção à melhoria da resposta estatal, não à substituição da mediação judicial por uma autorregulação punitiva e temerária.
Além disso, a decisão pode gerar um efeito contrário ao desejado: ao atribuir responsabilidade objetiva ou subjetiva às plataformas sem o devido contraditório, elas tenderão a adotar modelos automatizados e inflexíveis de remoção, muitas vezes sem análise contextual. Isso pode levar à exclusão de conteúdos legítimos, à desinformação sobre os critérios de moderação e à erosão da confiança pública no ambiente digital. A pluralidade do debate será substituída por um receio constante de exclusão ou silenciamento.
Responsabilidade do Congresso
Por fim, é fundamental que o Congresso, diante dessa nova jurisprudência, assuma sua responsabilidade institucional e retome o debate sobre uma eventual reformulação legislativa que preserve os pilares do artigo 19. É possível ajustar o dispositivo, incluindo salvaguardas adicionais, mas sem abrir mão da mediação judicial como baliza democrática. O Brasil não pode renunciar à racionalidade jurídica em nome de um ativismo regulatório desestruturado — nem pode permitir que a liberdade de expressão seja asfixiada por incertezas normativas.
Ao declarar o dispositivo inconstitucional, o STF abre um perigoso precedente. Sem o requisito da ordem judicial, o que se estabelecerá, na prática, será um convite a pedidos generalizados e contínuos de remoção de conteúdo — muitas vezes por motivos políticos, ideológicos ou concorrenciais. O temor da responsabilização civil poderá forçar as plataformas a adotar posturas preventivas, eliminando conteúdos de forma automática, o que configuraria uma forma de censura privada incentivada por insegurança jurídica.
A ausência de um critério objetivo sobre o que seria um “conteúdo manifestamente ilícito” — categoria agora usada como exceção à exigência de ordem judicial — só agrava esse cenário. A fronteira entre opinião impopular, crítica legítima e discurso ofensivo é tênue, e o juízo sobre a licitude de um conteúdo quase sempre exigirá uma análise contextual e dialética. No fim das contas, mesmo com a possível mudança de interpretação do artigo 19, será inevitável que os casos controversos retornem ao Judiciário, o que evidencia a fragilidade do novo paradigma.
Autorregulação do ambiente digital
A discussão sobre a responsabilidade das plataformas também não pode ignorar o papel da autorregulação no ambiente digital. Esses mecanismos funcionam como uma camada prévia à judicialização e respondem com razoável eficiência a conteúdos manifestamente abusivos. A despeito de imperfeições e casos de excesso ou omissão, é inegável que essa arquitetura regulatória privada permite certa flexibilidade e adaptabilidade, características essenciais no ambiente fluido e dinâmico da internet.
Nesse contexto, a teoria desenvolvida por Lawrence Lessig em Free Culture é particularmente relevante. Para Lessig, a regulação da internet não se dá apenas pela lei estatal, mas por quatro elementos interdependentes: o mercado, a arquitetura (ou código), as normas sociais e o próprio direito. O equilíbrio entre essas quatro forças é o que determina o grau de liberdade ou de controle no ciberespaço. Ao fragilizar a dimensão jurídica do artigo 19, o STF pode desajustar esse modelo, inclinando o sistema para um controle automatizado, de base técnica e mercadológica, que tende a sacrificar a liberdade em nome da eficiência.
Ainda segundo Lessig, a cultura livre depende de um ecossistema onde a liberdade de expressão não seja filtrada por interesses comerciais ou por modelos algorítmicos opacos. Ao exigir que plataformas removam conteúdos com base em avaliações próprias sobre sua legalidade — sob pena de responsabilidade —, o sistema transfere o juízo de valor da esfera judicial para uma esfera privada e assimétrica, guiada muitas vezes pelo risco reputacional ou financeiro, não pelo interesse público. Esse deslocamento corrói o espaço democrático digital, transformando o debate livre em produto moderado por conveniência e não por princípio.
Enfraquecimento do filtro judicial
Portanto, a autorregulação deve ser compreendida como uma ferramenta útil, mas não como substituta da regulação jurídica mediada pelo devido processo. O modelo ideal — como defende Lessig — é aquele que respeita a complementaridade entre os mecanismos: plataformas com regras claras e aplicadas com transparência, cidadãos com acesso ágil à Justiça e um Estado que regule com parcimônia, garantindo a pluralidade. A extinção do filtro judicial para responsabilização civil das plataformas, ao invés de empoderar o cidadão, pode acabar por enfraquecê-lo diante de decisões arbitrárias e incontroláveis de agentes privados com poder descomunal sobre a arena pública contemporânea.
A decisão do STF, ao reconhecer a inconstitucionalidade do artigo 19, enfraquece o filtro judicial, além de parecer desconsiderar que o excesso de vigilância e a supressão preventiva de conteúdos são tão ou mais danosos à democracia do que eventuais abusos cometidos por usuários. A proteção da liberdade de expressão é incompatível com o medo: medo de publicar, de opinar, de contrariar. E é justamente contra esse medo que o artigo 19 se erguia — como um baluarte civilizatório de uma internet plural, crítica e livre.
Ao invés de se curvar à lógica do “prevenir para não ser punido”, é imperativo que o sistema jurídico brasileiro preserve os fundamentos do Estado de direito: responsabilidade apenas após o devido processo legal, proteção à livre manifestação e o Judiciário como árbitro das controvérsias. Qualquer outro caminho é abrir as portas para a censura automatizada e, ironicamente, concretizar a distopia que John Perry Barlow tanto temia.
Encontrou um erro? Avise nossa equipe!