Opinião

Polêmico artigo 19 do Marco Civil da Internet e dilema da moderação de conteúdo

Autores

  • Dierle Nunes

    é professor da UFMG e da PUC-Minas. Membro honorário da Associação Iberoamericana de Direito e Inteligência Artificial. Diretor do Instituto Direito e Inteligência Artificial (Ideia). Doutor em Direito pela PUC-Minas/Universitá degli Studi di Roma "La Sapienza".

    View all posts
  • Mathaus Miranda Maciel

    é membro do Grupo de Estudos em Direito e Tecnologia (DTec) da UFMG pós-graduando em Direito Privado Tecnologia e Inovação pela Ebradi-SP ex-membro do grupo de iniciação científica Responsabilidade Civil: Desafios e Perspectivas dos Novos Danos na Sociedade Contemporânea pela Dom Helder Escola Superior e advogado.

    View all posts

11 de maio de 2024, 6h03

Se em 2013 o escândalo internacional Edward Snowden foi um dos fatores decisivos para a aceleração do trâmite do Marco Civil da Internet (MCI) [1], é inegável que, em tempos de “Sociedade em Rede[2], o caso “Musk x Moraes” (2024) tem o potencial de ser um dos eventos determinantes para a alteração desse mesmo Marco Civil.

Elon Musk e Trump por trás do cabo-de-guerra entre Bolsonaro e Alexandre de Moraes

O recente caso [3] reavivou as discussões sobre moderação de conteúdo online pelas plataformas digitais em diferentes frentes: (1) reativou o Projeto da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet (PL nº 2.630/2020, mal chamado de PL das Fake News), que terá um novo texto elaborado [4]; (2) ratificou a posição da comissão de juristas da qual um dos coautores fez parte que apresentou anteprojeto de reforma do Código Civil, no último dia 17 de abril, de revogar o artigo 19, do MCI [5]; e (3) poderá ensejar maior celeridade do julgamento pelo Supremo Tribunal Federal do Recurso Extraordinário 1.037.396 (Tema 987), que discute a constitucionalidade do artigo 19, do MCI, concernente a fatos anteriores à edição do Marco Legal.

Posição privilegiada

O artigo 19, do MCI [6], promulgado em 2014, no que tange à moderação e curadoria de conteúdo online prevê a lógica do judicial notice and take down, isto é, “o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente”.

Por razões óbvias, e considerando o histórico recente do país, o legislador no Marco Civil entendeu que a liberdade de expressão deveria gozar de posição privilegiada [7]. Nada de inovador no ordenamento jurídico pátrio, pois desde 2004 o ministro Luís Roberto Barroso já defendia que “tanto em sua dimensão individual como, especialmente, na coletiva, entende-se que as liberdades de informação e de expressão servem de fundamento para o exercício de outras liberdades, o que justifica sua posição de preferência em tese (embora não de superioridade) em relação aos direitos individualmente considerados” [8].

É importante salientar que naquela época as discussões que permeavam o tema eram incipientes, pois a sociedade civil organizada não enfrentava, como enfrenta hoje, os discursos de ódio (hate speech) [9]; ameaças às instituições democráticas; difusão de conteúdos ilegais, enfim, toda e qualquer utilização abusiva de serviços digitais.

Nova frente na regulação de conteúdo online

O fato objetivo é que, como bem aponta nosso colega da comissão de juristas supraindicada, Ricardo Campos, “o artigo 19, do Marco Civil, é anacrônico e reflete uma internet que não existe mais” [10]. Hoje, por exemplo, com a sistemática obsoleta do artigo 19, as violações de direitos que podem ocorrer no meio ambiente digital permanecem engendrando seus efeitos até que sobrevenha decisão judicial que torne indisponível o conteúdo ilícito, algo impensável pela rapidez com a qual conteúdos deletérios à sociedade “viajam” no ambiente digital.

A proposta de revogação do artigo 19, do MCI, na reforma do Código Civil, instaura uma nova frente na regulação de conteúdo online pelas plataformas digitais e soma-se ao PL de Liberdade, Responsabilidade e Transparência na Internet e as discussões travadas no âmbito do STF.

Digital Services Act da União Europeia

A nível internacional, o que pode servir de inspiração para o Brasil, passou a vigorar na União Europeia, em 17 de fevereiro de 2024, o Digital Services Act (DSA), uma emenda à Diretiva sobre o Comércio Eletrônico/2000 que estabelece requisitos de diligência aos prestadores de serviços intermediários na internet no tocante à moderação de conteúdo ilícito e desinformação, dentre outros riscos.

Spacca

O DSA pretende fomentar comportamentos responsáveis e diligentes dos prestadores de serviços intermediários, de modo que seja estimulado um ambiente virtual seguro, bem como sejam garantidos direitos fundamentais dos indivíduos pertencentes aos países-membros da União Europeia. De acordo com Vestager, vice-presidente da Europe Fit for the Digital Age, o DSA auxiliará a criar um ambiente online seguro e responsável. As plataformas (1) devem ser transparentes sobre suas decisões de moderação de conteúdo, (2) evitar que desinformações se tornem virais e (3) impedir que produtos ilícitos sejam oferecidos nos marketplaces [11].

Em relação à moderação de conteúdo, o DSA opera sob ótica inversa ao MCI, isto é, a técnica utilizada é a do notice and take down. Ao longo dos artigos 16 a 23, é criado um ecossistema próprio de regras sobre os requisitos da notificação e eventual moderação do conteúdo – respeitados, também, os imperativos do contraditório, ampla defesa e devido processo.

Mais celeridade

Primeiro, eliminando quaisquer críticas sobre a possibilidade de censura prévia ou de violação à liberdade de expressão, o artigo 8º, do DSA [12], preceitua que “não será imposta a esses prestadores qualquer obrigação geral de controlar as informações que os prestadores de serviços intermediários transmitem ou armazenam, nem de procurar ativamente fatos ou circunstâncias que indiquem ilicitudes”. O que, de fato, o artigo 8º pretende incentivar é a atuação específica [13] dos intermediários, bem como uma postura ativa e diligente – com observância à lei.

Segundo, de forma diversa ao MCI, o DSA, no artigo 16 (3), apenas responsabiliza as plataformas por conteúdo ilícito caso não seja dado o devido andamento à notificação do indivíduo lesado. Destarte, é a notificação regular, ou um alerta que permita à plataforma identificar a ilegalidade da atividade, que dão lugar a um conhecimento efetivo que possibilita que a plataforma tome as providências necessárias. É evidente, portanto, que a sistemática adotada tem o condão de ser muito mais célere se comparada com o artigo 19, do MCI, este condicionado à decisão judicial para retirada do conteúdo ilícito.

Além disso, a normativa europeia estabelece, na seção de “mecanismos de notificação e ação”, que os intermediários devem criar instrumentos eletrônicos de fácil acesso e utilização, permitindo a qualquer pessoa ou entidade a apresentação de notificações.

Sem censura prévia

O DSA inaugura um ecossistema integrado e voltado para regular as plataformas digitais, sem que isso implique censura prévia. Esse ecossistema torna-se explícito, na medida em que há requisitos essenciais para as notificações, artigo 16 (2), devendo estas serem suficientemente precisas e adequadamente fundamentadas, bem como deve a decisão do intermediário acerca da indisponibilidade, ou não, do conteúdo ilícito ser fundamentada – com exposição de motivos clara e específica que garanta a não censura; o contraditório, a transparência; a ampla defesa e a objetividade.

Por fim, no artigo 20, fica estabelecido que as plataformas devem manter, durante seis meses após a prolação da decisão de moderação, um sistema interno de gestão de reclamações, ou internal complaint-handling system, o que ratifica os padrões de compliance que devem ser estimulados.

DSA eleitoral à brasileira

Portanto, com a nova normativa europeia, o que se espera é a instituição de novos standards de conduta e de responsabilidade das plataformas digitais em relação à publicação de conteúdo ilegal e prejudicial para os indivíduos, o que, como consequência, proporcionará uma tutela mais efetiva para os usuários na internet.

No Brasil, além das três frentes citadas alhures, o Tribunal Superior Eleitoral (TSE) editou em fevereiro de 2024 a Resolução nº 23.732/2024 [14], que dispõe sobre normativas para propaganda eleitoral.

É interessante citar que a referida resolução inverteu a lógica do artigo 19, do MCI e foi ao encontro da sistemática adotada pelo DSA.

Nesse sentido, o “DSA eleitoral à brasileira” determinou que é dever dos provedores de aplicação de internet, responsáveis por veicular conteúdo político-eleitoral, adotar e publicizar medidas para atenuar a circulação de fatos notoriamente inverídicos ou gravemente descontextualizados que possam atingir a integridade do processo eleitoral. Como medidas, cita-se: (1) elaboração de termos de uso específicos; (2) instrumentos eficazes de notificação e de canais de denúncia; (3) a elaboração de avaliação de impacto de seus serviços sobre a integridade do processo eleitoral, entre outras medidas típicos da lógica do notice and take down (artigo 9º-D, §2o e 9º-E).

Virada tecnológica

No Anteprojeto de Reforma do Código Civil [15] adotamos esse modelo. São estabelecidas diretrizes para as práticas de moderação de conteúdo em plataformas digitais, enfatizando a importância de respeitar a não discriminação, a igualdade de tratamento, a liberdade de expressão e a pluralidade de ideias. O objetivo é facilitar a prevenção e a mitigação de danos decorrentes de conteúdos ilícitos ou prejudiciais.

O § 2º do artigo é particularmente relevante, pois foca na proteção dos usuários afetados por conteúdos ilícitos. Obriga as plataformas digitais a fornecerem mecanismos eficazes para que os usuários possam reclamar e buscar reparação integral dos danos sofridos devido a esses conteúdos. Para isso, as plataformas devem disponibilizar canais de denúncia acessíveis, que permitam aos usuários notificar a plataforma em seu idioma local. Além disso, as plataformas são obrigadas a informar aos usuários sobre o resultado de suas reclamações. Essas disposições visam garantir um processo transparente e acessível para que os direitos dos usuários sejam protegidos e respeitados no ambiente digital.

De forma preliminar, neste ano-aniversário, que marca dez anos de MCI, descortinam-se situações jurídicas que antes eram improváveis. Daí se pontuar a ocorrência de uma virada tecnológica como novo paradigma interpretativo do Direito que percebe a necessidade de uma percepção da sociedade data-driven (orientada por dados) e das tecnologias de informação e comunicação como eixo transversal de compreensão da sociedade e do Direito e não só como novas ferramentas [16]. Assim, nada mais razoável de que o Direito acompanhe as novas plasticidades da sociedade atual, sobretudo na discussão de moderação de conteúdo online.

As iniciativas enfrentam a problemática e pretendem equilibrar os interesses dos consumidores/usuários, que terão maiores garantias de direitos na internet e transparência do processo envolvido, e das plataformas digitais, uma vez que não é, e nunca foi, o propósito da regulação de conteúdo online, a censura prévia. Não será imposto às plataformas um dever geral de fiscalização, mas a adoção de posturas ativas e atuação específica no combate aos materiais ilícitos, o que está inspirando o Brasil.

É imperioso destacar que ao adotar a lógica do notice and take down, e atribuir uma posição preferencial para a liberdade de expressão não significa afastar a responsabilidade de usuários, provedores de aplicações e fornecedores de conteúdo, visto que todos esses sujeitos têm o dever de promover a qualidade das informações disponibilizadas na rede e de observar as normas constitucionais [17].

Se a liberdade de expressão é interpretada como pressuposto para o exercício dos demais direitos e, com esse ecossistema integrado de regulação eficiente do mercado digital, estimulando padrões de compliance e posturas diligentes de usuários e das plataformas, serão fomentados todos os lados dessa relação já desequilibrada (usuários-plataformas) e, inclusive, o desenvolvimento da democracia.

 


[1] PARENTONI, L; LIMA, HCS. Proteção de Dados Pessoais no Brasil: antinomias internas e aspectos internacionais. In: Direito & Internet IV. 2019.

[2] CASTELLS, M.. The rise of the network society. Oxford/West Sussex, 2010.

[3] MAIA, F.. Alexandre de Moraes determina abertura de inquérito contra Elon Musk. Jota. 08.4.24. https://encurtador.com.br/anwKW

[4] LEITOLES, F.. Lira diz que PL das Fake News não será votado e que grupo de trabalho vai discutir novo texto. Gazeta do Povo. 09.4.24. https://encurtador.com.br/cnJ12

[5] TEIXEIRA, M. Novo Código Civil visa criar ambiente para punir plataformas, diz Salomão em meio a briga Moraes e Musk. Folha de SP. 03.4.24. https://encurtador.com.br/ASY57

[6] BRASIL. Lei nº 12.965, de 23.4.14. https://encurtador.com.br/cfqO5

[7] SOUZA, CAP. As cinco faces de proteção à liberdade de expressão no Marco Civil da Internet. Direito & Internet III: Marco Civil da Internet. II. Quartier Latin, 2015.

[8] BARROSO, LR. Colisão entre Liberdade de Expressão e Direitos da Personalidade. Critérios de Ponderação. Interpretação Constitucionalmente Adequada do Código Civil e da Lei de Imprensa. RDA. v. 235, 2004. https://periodicos.fgv.br/rda/article/view/45123

[9] CRIMES NA WEB. Crimes de ódio têm crescimento de até 650% no primeiro semestre de 2022. SaferNet. https://encurtador.com.br/bgKOX

[10] TAJRA, A. Reforma do Código Civil abre nova frente pela responsabilização das redes. ConJur. 11.3.2024. https://encurtador.com.br/gnJS4

[11] DIGITAL SERVICES ACT: Commission welcomes political agreement on rules ensuring a safe and accountable online environment. European Commision. 23 abr. 2022. https://ec.europa.eu/commission/presscorner/detail/en/IP_22_2545

[12] UE. Regulamento 2022/2065 do Parlamento Europeu e do Conselho de 19 de outubro de 2022. (Regulamento dos Serviços Digitais). https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32022R2065

[13] GRINGS, MG. O Digital Services Act e as novas regras para a moderação de conteúdo. ConJur. 22 fev. 2023. https://acesse.dev/1EV3f

[14] BRASIL. Resolução nº 23.732, de 27 de fevereiro de 2024. Altera a Res.-TSE nº 23.610, de 18 de dezembro de 2019, dispondo sobre a propaganda eleitoral. https://acesse.dev/f1n2d

[15] https://encr.pw/6ZFVI

[16] NUNES, D.. Virada tecnológica no direito processual: fusão de conhecimentos para geração de uma nova justiça centrada no ser humano. RePro. n. 344, out. 2023. NUNES, D. Virada Tecnológica no Direito Processual (da automação à transformação): seria possível adaptar o procedimento pela tecnologia. IA e Direito Processual: os impactos da virada tecnológica no direito processual. Juspodivm, 2020. NUNES, D; MARQUES, AL. Revista de Processo, v. 285, nov./2018

[17] TEFFÉ, CS; SOUZA, CA. Responsabilidade civil de provedores na rede: análise da aplicação do Marco Civil da Internet pelo Superior Tribunal de Justiça. Revista IBERC nov.-fev./2019. https://l1nq.com/Ylf6l

Autores

  • é sócio do escritório do Camara, Rodrigues, Oliveira & Nunes Advocacia (Cron Advocacia), doutor em Direito Processual, professor na PUC Minas e UFMG, membro da comissão de juristas que elaborou o anteprojeto de reforma do Código Civil e que assessorou na elaboração do CPC/2015 e presidente da Comissão de Inteligência Artificial no Direito da OAB-MG.

  • é membro do Grupo de Estudos em Direito e Tecnologia (DTec) da UFMG, pós-graduando em Direito Privado, Tecnologia e Inovação pela Ebradi-SP, ex-membro do grupo de iniciação científica Responsabilidade Civil: Desafios e Perspectivas dos Novos Danos na Sociedade Contemporânea pela Dom Helder Escola Superior e advogado.

Encontrou um erro? Avise nossa equipe!