Direito Digital

A seção 230 do CDA e o artigo 19 do Marco Civil da Internet

Autores

  • Tatiana Stroppa

    é advogada doutora em Direito professora do Centro Universitário de Bauru (Ceub-ITE) pesquisadora das liberdades comunicativas e coordenadora do GT Políticas e Governança da Comunicação da Associação Brasileira de Pesquisadores em Comunicação e Política (Compolítica).

  • Letícia Redis Carvalho

    é especialista em Direito Digital e em Relações Internacionais bacharela em Direito pela Universidade de São Paulo (USP) e advogada.

  • Maria Gabriela Grings

    é mestre e doutora em Direito processual pela Faculdade de Direito da Universidade de São Paulo (USP) bacharel em Direito pela Universidade Federal do Paraná (UFPR) coordenadora do Legal Grounds Institute e advogada.

  • Tatiana Bhering Roxo

    é mestre em Direito do Trabalho pela Pontifício Universidade Católica de Minas Gerais (PUC-MG) sócia do Barra Barros e Roxo Advogados advogada nas áreas trabalhista e de privacidade e proteção de dados pessoais professora convidada nos cursos de pós-graduação em Direito e Processo do Trabalho da Universidade Presbiteriana Mackenzie e em cursos de pós-graduação cursos in company e de curta duração e autora de artigos e livros.

  • Samuel Rodrigues de Oliveira

    é doutorando em Teoria do Estado e Direito Constitucional pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) coordenador do Legal Grounds Institute e advogado.

4 de maio de 2022, 8h00

Nos Estados Unidos, após a invasão do Capitólio em 2021 por apoiadores de Donald Trump, diversas redes sociais decidiram remover publicações e suspender a conta do ex-presidente estadunidense, considerando que ele as estava utilizando para fomentar o ódio e ameaçar a democracia no país [1]. No Brasil, algumas contas e publicações também foram removidas por plataformas como o Instagram, Twitter e Facebook. Em julho de 2020, 87 perfis e páginas do Facebook ligados a funcionários de gabinete do presidente Jair Bolsonaro foram removidas pela própria plataforma por estarem envolvidas na disseminação de desinformação [2].

ConJur
Esses casos ilustram a capacidade das redes sociais para controlar a circulação de conteúdos e de informação na rede em tempo real, mesmo quando estão em cena agentes políticos que utilizam amplamente as plataformas [3] para a circulação de seus discursos e divulgação de suas condutas. Apesar de as justificativas envolverem, por exemplo, o necessário combate às fake news e aos discursos de ódio, a assimetria de poder entre essas grandes empresas tecnológicas, que têm milhões de usuários e operam sobre a lógica do tratamento massivo de dados, da predição e modulação de comportamentos [4], e os usuários (mesmo os Estados soberanos) tem indicado para a necessidade de uma intervenção corretiva do Estado sobre as atividades de moderação de conteúdo que afetam direitos individuais e a própria democracia.

Nos Estados Unidos, a atividade de moderação de conteúdo por plataformas digitais é permitida e garantida pela Seção 230 do Communications Decency Act (CDA) de 1996; no Brasil, pelo artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014, "MCI"). Ambos estão passando por processos de revisão e discussão legislativa, exatamente pela percepção de que as normas talvez já não sejam capazes de lidar com os desafios atuais de moderação de conteúdo e da responsabilização de plataformas digitais por suas atividades.

A Seção 230 do CDA é dividida em duas partes: Seção 1, que fixa que as plataformas não podem ser responsabilizadas por conteúdos de terceiros porque tais empresas não podem ser equiparadas a editores de conteúdos [5]; Seção 2, que concede imunidade para que as plataformas façam a moderação de conteúdos gerados pelos usuários quando considerem, de boa-fé, que há conteúdo obsceno, lascivo, imundo, excessivamente violento, assediante ou de outra forma censurável, seja ou não tal material protegido constitucionalmente.

Como explicado por Jeff Kosseff [6], a concessão de imunidade aos provedores de Internet teve por objetivo evitar que estes fossem considerados editores ou criadores do conteúdo veiculado na plataforma, para que não fossem tratados como responsáveis por conteúdos criados por terceiros. Desta forma, evitava-se a repetição de posicionamentos como o do Tribunal Superior de Nova York, que, em 1995, responsabilizou civilmente a Prodigy, prestadora de serviços on-line, por mensagens difamatórias postadas por terceiros em seus murais, sob a alegação de que esta realizava moderação do conteúdo e portanto seria “editora” do conteúdo gerado por terceiros [7].

O regime de responsabilização determinado pela Seção 230 do CDA impulsionou o desenvolvimento de provedores de conteúdo e de aplicações e a expansão da internet, permitindo que se desenvolvessem aplicações como as conhecemos atualmente, sendo um sistema aberto e que permitiria comunicação e formas de relacionamentos desintermediadas e livres de censura.

Contudo, a Seção 230 passou a ser percebida como garantidora de imunidades excessivas às plataformas digitais, em especial após o advento de empresas como o Facebook e o Twitter, que atualmente conseguem concentrar e canalizar a disputa pela possibilidade de ser visto e ouvido [8]. A ascensão e o gigantismo alcançado por tais plataformas digitais, que funcionam como grandes mediadoras não apenas entre os indivíduos, mas também entre os diversos sistemas da sociedade, embasam argumentações que entendem existir um anacronismo na Seção 230 do CDA. Nesse sentido, a justificativa inicial de concessão de imunidade para proteger as empresas perante os Estados e em face de possíveis condenações a reparações de danos confere, atualmente, uma liberdade significativa para as redes sociais, o que recebe críticas atualmente.

Jeff Kosseff [9] indica que, desde 2019, mais de 25 propostas legislativas foram apresentadas para alterar ou revogar a Seção 230 e assim modificar o regime de responsabilidade e obrigações das redes sociais. Indica que, de forma geral, parte das propostas estão voltadas para diminuir e limitar as atividades de moderação, enquanto outras se destinam à imposição de maiores exigências de moderação diante de conteúdos que possam causar, com probabilidade, danos irreparáveis.

Apesar de considerar os desafios que as atividades de moderação de conteúdo representam para os Estados democráticos, Kosseff considera que manter a autorregulação feita pelas empresas, com poucas intervenções estatais, continua sendo uma das melhores alternativas. Para embasar seu ponto de vista destaca, por exemplo, que: a) a revogação da Seção 230 ou mesmo a exigência de combate a determinados tipos de conteúdos podem levar as redes sociais a um aumento do papel ativo na retirada e bloqueio de mensagens, mesmo que não sejam efetivamente ilegais ou ofensivas; b) as atividades desenvolvidas pelas redes sociais estão protegidas também pela Primeira Emenda e, assim, as decisões de moderação que tomam não podem ser impedidas pelo governo e nem por demandas dos usuários; c) a falta de debates entre especialistas apartidários dificulta a compreensão dos impactos reais de uma mudança na Seção 230, como ocorreu com a Lei "Stop Enabling Sex Trafficking Act" de 2018 que, ao tentar combater o tráfico e exploração sexual, acabou deixando em situação de maior vulnerabilidade os "profissionais do sexo" — principalmente aqueles de uma classe econômica mais baixa, negros, pardos e indígenas, que tiveram acesso ao site Craigslist interrompido porque este, com receio de ser enquadrado na nova legislação, removeu toda a seção de "anúncios pessoais".

No âmbito brasileiro, a tentativa de modificação do regime de responsabilidade dos provedores de aplicação [10] (ou seja, aqueles que fornecem o acesso a funcionalidades acessadas pela internet, como as redes sociais) centra-se justamente na revisão do artigo 19 do MCI, e o debate sobre a sua constitucionalidade, atualmente em discussão no STF, também diz respeito à possibilidade de plataformas moderarem conteúdo publicado por terceiros.

Referido artigo, buscando assegurar a liberdade de expressão e impedir a censura, determina que apenas haverá responsabilização de provedores de aplicação se estes não tomarem providências para remover conteúdo após recebimento de ordem judicial [11]. Nota-se que a existência de ordem judicial apenas serve para avaliar a responsabilização posterior da plataforma, mas não condiciona a atuação à existência de ordem judicial — "cada provedor continua livre para implementar as políticas que entender pertinentes para remoção voluntária de conteúdo" [12].

Da leitura do artigo, nota-se que o MCI não retirou dos provedores a possibilidade de remover conteúdo que julguem ofensivo, ao mesmo tempo em que não os isentou de toda responsabilidade: quando a moderação de conteúdo resultar em violação de direitos, a plataforma poderá ser responsabilizada nos tribunais, mas sua responsabilização não decorrerá do fato de ter realizado moderação de conteúdo, e sim da violação de certo direito ao fazê-la. Ao transferir para o Judiciário o dever principal de avaliação da necessidade de remoção, e não ao cotidiano das redes sociais, a norma permite que as atividades das plataformas se desenvolvam sem consequências indesejadas de monitoramento ou retirada em massa de conteúdos de terceiros. Além disso, o artigo reforça a ideia de que redes sociais são apenas intermediárias, e sua responsabilidade deveria estar restrita aos limites de tal atividade.

Parte do corpo jurídico discorda da interpretação acima sobre o artigo 19, e sobre o caráter intermediário das atividades das redes sociais, defendendo a tese de que as plataformas não poderiam agir sem a existência de uma ordem judicial prévia, ou de que, a partir do momento em que agem sem ordem judicial, poderiam ser responsabilizadas por suas condutas. Os que defendem a inconstitucionalidade afirmam que o MCI priorizou a liberdade de expressão sobre outros direitos, o que estaria em desacordo com a Constituição Federal [13] (apesar de os tribunais brasileiros tenderem a decidir pela posição preferencial da liberdade de expressão sobre outros direitos [14]). Entendem que deveria haver mais responsabilidade das plataformas, ainda que em detrimento da liberdade de expressão promovida por seus modelos de negócio. Contudo, se declarada a inconstitucionalidade, poderíamos caminhar para cenários de autocensura, e para "uma internet menos diversa. Se aparecer um conteúdo que seja mais crítico, que deixa alguma subjetividade sobre se lesiona ou não a honra de alguém, a plataforma vai remover" [15], buscando evitar responsabilização mais rígida, tal como argumentou Kosseff no contexto da Seção 230.

Assim, para o julgamento do Recurso Extraordinário nº 1.037.396, em que foi reconhecida repercussão geral (Tema 987), o STF deverá decidir quanto à constitucionalidade de referido artigo, indicando qual seria a sua interpretação do texto legal. O STF deverá analisar a "necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros". O caso é discutido a partir de recurso interposto pelo Facebook sobre voto reformador de sentença que havia excluído a responsabilidade da rede social. Destaca-se trecho do voto em questão: "condicionar a responsabilização da ré à prévia tomada de medida judicial pela autora, na conformidade do artigo 19 do Marco Civil da Internet, fulminaria seu direito básico de efetiva prevenção e reparação de danos patrimoniais e morais, individuais, coletivos e difusos (art. 6º, inciso VI, do Código de Defesa do Consumidor)". Ainda não houve julgamento do STF; os autos estão conclusos ao relator, ministro Dias Toffoli [16].

Pelo disposto acima, nota-se uma tendência, tanto no Brasil como nos Estados Unidos, de reformar o regime de responsabilização das redes sociais, especialmente no que tange à regulação das atividades de moderação de conteúdo. Contudo, seja nas propostas legislativas estadunidenses ou no debate no STF, ainda parece ser necessária maior compreensão das atividades das plataformas e dos limites da responsabilização para que os regimes possam se adequar à realidade. Nesse sentido, as críticas apresentadas por Jeff Kosseff à reforma da Seção 230 parecem também se aplicar às propostas de alteração do MCI no Brasil: diante do grande poder das redes sociais e de sua capacidade de ação, o regime atual não parece ser suficiente para garantir direitos fundamentais nesses espaços, mas as discussões sobre reformas em ambos os países ainda carecem de estudos apartidários e debate aprofundado.

* O texto foi produzido por integrantes do Grupo de Estudos de Novas Regulações de Serviços Digitais no Direito Comparado, iniciativa conjunta do Instituto Legal Grounds, do Grupo de Estudos em Proteção de Dados da Universidade Federal do Rio Grande do Sul (UFRGS) e do Laboratório de Inovação e Direito da Universidade de São Paulo (USP)


[1] CARVALHO, L.R. O banimento das contas de Donald Trump no Facebook e Twitter. Jota, 07 jan. 2021. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/o-banimento-das-contas-de-donald-trump-no-facebook-e-twitter-07012021. Acesso em: 13/4/ 2022.

[3] Por exemplo: CELLAN-JONES, R. Como o Facebook pode ter ajudado Trump a ganhar a eleição. BBC, 12 nov. 2016. Disponível em: https://www.bbc.com/portuguese/geral-37961917. Acesso em 19/4/ 2022.

[4] VALENTE, Jonas. Tecnologia, informação e poder: das plataformas online aos monopólios digitais. 2019. 399 f. Tese (Doutorado) – Instituto de Ciências Sociais – Departamento de Sociologia, Universidade de Brasília, Brasília, DF, 2019, p. 195.

[5] "Section (c)(1). No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider; Section (c)(2). No provider or user of an interactive computer service shall be held liable on account of any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected; or any action taken to enable or make available to information content providers or others the technical means to restrict access to material described in paragraph (1)".

[6] KOSSEFF, Jeff. A user's guide to Section 230, and a legislator's guide to amending it (or not). Berkeley Technology Law Journal, v. 37, nº 2, 2022.

[7] ESTADOS UNIDOS. New York Supreme Court. Stratton Oakmont v. Prodigy Servs Co., 1995.

[8]WU, Tim. Is the first amendment obsolete? L. Rev. 547, p. 548. 2018. Disponível em: https://repository.law.umich.edu/ mlr/vol117/iss3/4. Acesso em: 28/6/2020.

[9] KOSSEFF, Jeff. A user's guide to Section 230, and a legislator's guide to amending it (or not). Berkeley Technology Law Journal, v. 37, nº 2, 2022.

[10] Lei 12.965/2014, artigo 5º, VII – Consideram-se aplicações de internet: o conjunto de funcionalidades que podem ser acessadas por meio de um terminal conectado à internet.

[11] Artigo 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

[12] LEONARDI, Marcel. Fundamentos de Direito Digital. São Paulo: Ed. Revista dos Tribunais, 2019, p. 90.

[13] FRAZÃO, Ana; MEDEIROS, Ana. Responsabilidade civil dos provedores de internet: a liberdade de expressão e o artigo 19 do Marco Civil. Migalhas, 23/2/2021. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade-civil/340656/responsabilidade-civil-dos-provedores-de-internet.

[14] ADPF 130, DJe de 06/11/2009, ADPF 187, DJe de 29/5/2014, RE 511.961, DJe de 13/11/2009, ADI 2404, DJe de 1/8/2017, e ADI 4.815, DJe 29/1/2016

[15] "Fim do artigo 19 põe em risco liberdade de expressão na internet", diz Carlos Affonso de Souza. Estadão, 29/11/2019. Disponível em: https://link.estadao.com.br/noticias/cultura-digital,fim-do-artigo-19-poe-em-risco-liberdade-de-expressao-na-internet-diz-carlos-affonso-de-souza,70003104631.

Autores

  • é doutora em Direito pelo Centro Universitário de Bauru - Instituição Toledo de Ensino, professora de Direito Constitucional e Processo Constitucional do Ceub-ITE, advogada e presidente da Comissão de Proteção de Dados da 20ª Subseção da OAB - Jaú.

  • é especialista em Direito Digital e em Relações Internacionais, bacharela em Direito pela Universidade de São Paulo (USP) e advogada.

  • é mestre e doutora em Direito Processual pela Faculdade de Direito da Universidade de São Paulo (USP), bacharel em Direito pela Universidade Federal do Paraná (UFPR), pesquisadora do Instituto Legal Grounds e advogada.

  • é mestre em Direito do Trabalho pela Pontifícia Universidade Católica de Minas Gerais, bacharel em Direito pela Pontifícia Universidade Católica de Minas Gerais, pesquisadora do Instituto Legal Grounds, professora convidada da pós-graduação da Universidade Mackenzie, professora da pós-graduação da Escola Superior da Advocacia da OAB-MG e sócia do Barra, Barros e Roxo Advogados.

  • é doutorando em Teoria do Estado e Direito Constitucional pela PUC-Rio, mestre em Direito e Inovação pela UFJF, especialista em relações internacionais, pesquisador do Instituto Legal Grounds e advogado.

Tags:

Encontrou um erro? Avise nossa equipe!