Observatório Constitucional

STF analisa responsabilidade do provedor por conteúdo de terceiros

Autores

14 de dezembro de 2019, 8h00

Na conjuntura de Revolução Informacional[1] em que se vive, o Direito tem se deparado com diversos problemas sociais que demandam enfrentamento, como o conceito de privacidade e intimidade em ambiente virtual; a difusão de fake News; a necessidade de proteção de dados dos cidadãos e da confidencialidade do fluxo de informações que transitam na rede; bem como a responsabilidade dos provedores de aplicação sobre conteúdos ofensivos ou ilegais publicados por terceiros. Este último ponto seria ponderado pelo Supremo Tribunal Federal no último dia 4/12/2019. Entretanto, a Corte optou pelo aditamento de julgamento do feito, para conduzir reflexão prévia mais aprofundada sobre a questão.[2]

O assunto pautado, que corresponde ao Tema 987 da sistemática da repercussão geral, diz respeito à análise de constitucionalidade do Marco Civil da Internet no Brasil (Lei 12.965/2014), notadamente do artigo 19, que dispõe sobre a responsabilidade de provedor de internet, websites e gestores de aplicativos de redes sociais pelos dados decorrentes de conteúdo gerado por terceiros. Eis o conteúdo do dispositivo referido:

Artigo 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

O ponto nevrálgico da discussão gira em torno da necessidade de prévia e específica ordem judicial de exclusão de conteúdo, cujo descumprimento, pelo provedor de aplicação, é requisito para a sua responsabilização civil, em razão dos danos decorrentes de atos ilícitos praticados por terceiros no âmbito da internet.

Por um lado, entende-se que condicionar a responsabilidade do provedor à prévia ordem judicial específica significaria tornar sem efeito o sistema protetivo haurido com Código de Defesa do Consumidor. Além disso, essa exigência compele o consumidor vitimado pela edição de conteúdo ofensivo ou ilegal divulgado em ambiente virtual a ingressar em Juízo para atendimento de pretensão que poderia ser levada a cabo pelo próprio provedor, de forma mais rápida e eficiente.

Por outro lado, pondera-se que o mencionado artigo 19 resulta de decisão do legislador que, após extenso debate com a sociedade na construção do referido arcabouço normativo,[3] conformou o conflito entre a responsabilidade por danos e os direitos à informação e à liberdade de expressão, optando por estabelecer o Poder Judiciário como foro de discussão das celeumas, de modo a afastar do provedor de aplicação o papel de analisar a legalidade, a veracidade ou a ofensividade de determinado conteúdo.

Este breve ensaio descritivo busca apresentar como o Direito Comparado tem enfrentado a problemática da responsabilidade civil de provedores de aplicação por conteúdo publicado por terceiros, a partir da análise de dois sistemas legais paradigmáticos — estadunidense e alemão — que adotaram posições antagônicas no tratamento do tema.

A pergunta que se faz para melhor compreender o debate é se a ordem normativa adotada pelo Estado confere ao provedor de aplicação o dever de monitorar, analisar e controlar os conteúdos publicados por seus usuários, sendo responsabilizado objetivamente pelo conteúdo publicado em sua plataforma; ou se, sendo encarado como mero meio de transmissão de mensagens sem controle editorial, deve o provedor ser responsabilizado apenas quando, ciente do conteúdo supostamente ofensivo pela notificação pela vítima, deixa de removê-lo. Discute-se, ainda, a natureza dessa notificação, para ponderar se a mera comunicação extrajudicial é suficiente para incidir a responsabilização civil sobre o provedor quando não age sobre o conteúdo ofensivo, ou se se exige a atuação do Judiciário para que a omissão do provedor de aplicação seja sancionada.

Modelo norte-americano
A discussão a respeito da responsabilidade sobre conteúdos ilegais publicanos no âmbito da internet não é nova para o direito americano. Nos julgamentos dos casos Cubby Inc. V Compuserv Inc., em 1991; e Stratton Oakmont, Inc. v. Prodigy Services Co., em 1996, os tribunais estadunidenses assentaram que os provedores de conexão ou serviço não podem ser responsabilizados solidariamente com quem inserir manifestação abusiva na internet quando tais agentes limitarem-se a transmitir mensagens sem exercer controle editorial sobre o seu conteúdo, cabendo à vítima, nessas hipóteses, apenas demandar reparação do autor do conteúdo ofensivo.

Seguindo esse entendimento, o Congresso Norte-Americano, ao tratar do tema, incluiu o artigo 230 no Communications Decency Act (CDA), de 1996, e isentou os provedores de aplicação da responsabilidade quanto a conteúdo lesivo publicado por terceiro (safe harbors) – salvo infração a direitos autorais, que possui legislação própria –, incentivando, no entanto, a remoção espontânea de materiais que o próprio provedor considerasse ilícitos e contrários às suas políticas de uso. Nessa circunstância, o provedor poderia praticar o chamado “bloqueio do bom samaritano”, consistente na retirada de conteúdo ofensivo antes de requerimento judicial formulado pelo usuário, nos casos de considerar o material obsceno, indecente, lascivo, sórdido, excessivamente violento, ameaçador, ou de qualquer forma questionável, independente da proteção constitucional desse material.[4]

O modelo norte-americano possui raízes fincadas na concepção liberal e utilitarista conferida por esse país ao free speech, ou seja, à prevalência dada ao princípio da liberdade de expressão como corolário da democracia estadunidense, protegido pela extrema amplitude conferida à Primeira Emenda (1791) à Constituição Federal de 1787 pela Suprema Corte daquele País.[5] Segundo seu entendimento, o discurso de ódio[6] possui um sentido restritivo, motivo pelo qual são admitidas manifestações de negação do holocausto, de defesa da supremacia branca, e até de expressões antissemitas, desde que não haja clara e imediata incitação à violência. Segundo a Suprema Corte, eventuais abusos da liberdade de expressão se combate com mais liberdade de expressão, e não com supressão do discurso.[7]

Por esse motivo, o provedor de aplicação é visto, naquela nação, como mero meio à disposição do usuário para publicação de conteúdo informacional ou pessoal, sendo responsável apenas pela identificação do autor de eventual ofensa. Não obstante estar isento de responsabilidade, admite-se a retirada de conteúdo após mera notificação extrajudicial do usuário, no caso de violação às políticas de uso da plataforma, sem por isso o provedor de aplicação possa ser responsabilizado.

Modelo alemão
O modelo alemão recentemente adotado pelo advento do Netzwerkdurchsetzungsgesetz – NetzDG (Network Enforcement Act), aprovado em junho de 2017, difere do modelo americano ao conferir aos provedores de aplicação com mais de dois milhões de usuários em seu território a responsabilidade e a atribuição de avaliar, a partir da notificação extrajudicial feita por seus usuários, a ilegalidade do conteúdo publicado por terceiro.

O referido ato normativo teve por intento combater, de forma mais efetiva e transparente, o discurso de ódio e a disseminação de notícias falsas nas redes. Embora não use diretamente tais termos, cita uma lista de crimes existentes no Código Penal Alemão a serem combatidos, como os crimes de uso e propaganda de símbolos contrários aos valores constitucionais; a incitação ou o recrutamento para crimes e atos de violência; a distribuição, o uso e a disseminação de pornografia infantil e juvenil; e outros comportamentos tidos por ilegais perpetrados por publicações em redes sociais, especialmente crimes contra a honra.[8]

Para tanto, o ato obriga os provedores com mais de dois milhões de usuários do território alemão a disponibilizar canais de atendimento ao usuário, facilmente reconhecíveis e de acessibilidade simples e direta, que possibilitem a notificação sobre publicação abusiva, ilegal ou danosa, existente em sua plataforma.

A suposta violação à legislação criminal deve ser imediatamente examinada pelo provedor de aplicação, ao qual é conferido o poder de avaliar a sua ilegalidade. Exige-se que, em caso de conteúdo manifestamente ilícito, a remoção ou o bloqueio de acesso ao material ocorra dentro de 24 horas. Para os demais materiais ilegais, aos provedores é concedido o prazo de 7 dias para exclusão ou bloqueio de acesso ao conteúdo.

Alternativamente, os provedores de aplicação podem encaminhar o conteúdo denunciado a uma instituição autorregulada independente e especializada, devidamente reconhecida pelo Departamento de Justiça Federal da Alemanha, criada para moderar esse tipo de conflito.

Todas as decisões tomadas pelo provedor devem ser justificadas e prontamente informadas ao usuário notificador, como forma de cumprir um dever de transparência e efetividade na resposta a essas provocações. Os provedores de aplicação são, ainda, obrigados a enviar um relatório bienal às autoridades alemãs do tratamento dado às notificações sobre conteúdos ilegais, os quais devem conter o volume de reclamações recebidas, as práticas adotadas pela plataforma para a tomada de decisões sobre os materiais denunciados, bem como a equipe destinada ao processamento do conteúdo relatado. Tais relatórios devem ser disponibilizados a qualquer interessado, por meio da internet.

Caso os provedores de aplicação não cumpram tais deveres de forma apropriada, seja pela não exclusão de conteúdo ilegal no prazo legal, seja pela não resposta aos usuários ou, ainda, pelo não envio ou pelo envio incompleto do relatório bienal, cometem violação regulatória, punida com uma multa de até 5 milhões de euros contra a pessoa responsável pelo gerenciamento das notificações, e de até 50 milhões de euros contra o próprio provedor de aplicação.[9]

Como forma de conferir efetividade à mencionada legislação, a norma em questão também obriga os provedores de aplicação, independentemente de onde esteja situada sua base jurídica, a nomear uma pessoa na Alemanha, identificada em seu sítio eletrônico, que esteja autorizada a representar a empresa em processos civis, a receber requisição de informações pelas autoridades competentes e a responder pelas multas regulatórias impostas.

O diploma normativo, por fim, faz uma restrição à atuação administrativa dos provedores de aplicação, nos casos de ofensa aos direitos de personalidade de um usuário. Embora ele admita que a pessoa ofendida exija dos provedores de aplicação o fornecimento de detalhes destinados à identificação do autor das ofensas, nos termos da Lei de Proteção de Dados, ela confere à tal poder a reserva de jurisdição, tornando imprescindível a manifestação de um tribunal com jurisdição sobre o assunto para obrigar os provedores e fornecerem tais informações.

Note-se que, ao contrário da jurisprudência americana, o Tribunal Constitucional Alemão, ao reconhecer um destacado valor à liberdade de expressão, reafirma a necessidade de se estabelecerem alguns limites ao exercício desse direito, em prol de valores que fortaleçam a unidade da comunidade e não ofendam a dignidade e a honra dos indivíduos, considerados e identificados como membros dessa coletividade.

Por esse motivo, a Corte Constitucional veda e criminaliza manifestações de negação ou de minimização da extensão do holocausto, afirmando que, embora a opinião seja livre, não se pode admitir afirmações que submetam fatos históricos a um juízo de veracidade ou falsidade, colocando em dúvida a sua existência, de modo ofensivo à comunidade atingida por tais atos violentos perpetrados pelo Estado.[10]

Diante da conjuntura histórica e da cultura jurídica naquele país, a legislação que ora se descreve confere ao provedor de aplicação a responsabilidade de excluir da rede conteúdos de caráter ilegal que representem não apenas ofensa individual, mas também a toda a comunidade, sob pena de responder a sanções administrativas de alta monta.

Conclusão
A partir dos modelos acima descritos, percebe-se que cada país busca conformar a cultura político-jurídica ao arcabouço normativo de regulação da rede. Ao ser provocado a decidir a matéria discutida no Tema 937 da sistemática da repercussão geral, o Supremo Tribunal tem desafio de desvendar se o artigo 19 do Marco Civil da Internet, da forma como formulado, expressa a cultura político-jurídica brasileira sobre o tema, especialmente quanto à conformação dos limites admitidos à liberdade de expressão, frente a publicações de caráter ilegal e ofensivo publicadas nas redes sociais.

 


[1]1 CASTELLS, Manuel. A sociedade em rede. São Paulo: Paz e Terra, 2011, p. 68-69.

[2] BRASIL. Supremo Tribunal Federal. Recurso Extraordinário 1.037.396, Rel. Min. Dias Toffoli.

[3] FINAGEIV PEIXOTO. Anna Carolina. Regulação da Internet: os desafios do Estado desenvolvimentista para a construção de um ambiente competitivo, inovador e democrático no espaço digital. Dissertação de Mestrado. Orientador: Professor Doutor José Maria Arruda de Andrade. Faculdade de Direito da Universidade de São Paulo. 2014. Páginas 27 e ss.

[4] SOUZA, Carlos Affonso Pereira. Responsabilidade civil dos Provedores de Acesso e aplicações de internet: Evolução jurisprudencial e os impactos da Lei n 12.965/2014 (Marco Civil da Internet). In: LEITE, George Salomão; LEMOS, Ronaldo (Coords.). Marco Civil da Internet. São Paulo: Atlas, 2014.

[5] Caso Brandenburg Vs. Ohio (1969)

[6] ROSENFELD, Michel. Hate speech in constitutional jurisprudence: a comparative analysis. Cardozo Law Review, New York, 24, n. 4, p. 2, abril 2003

[7] CAVALCANTE FILHO, João Trindade. O discurso de ódio na jurisprudência alemã, americana e brasileira: como a ideologia política influencia os limites da liberdade de expressão. São Paulo: Saraiva, 2018, p. 54-56.

[8] Ministério Federal da Justiça e Defesa do Consumidor da Alemanha (Bundesministerium der Justiz und für Verbraucherschutz). Disponível em: <https://www.bmjv.de/DE/Themen/FokusThemen/Netz-DG/NetzDG_EN_node.html;jsessionid=8F25234F1B291C2FF735C928F938BA52.1_cid297>. Acesso em 9/12/2019.

[9] Note-se que, em agosto de 2019, a empresa Facebook Ireland Limited foi multada em € 2 milhões pelo Departamento Federal de Justiça da Alemanha (Bundesamt fur Justiz – BfJ) por violações contra a NetzDG, referentes às obrigações de reportar às autoridades alemães sobre o tratamento conferido às notificações formuladas pelos usuários a respeito de conteúdos ilegais.

[10] Caso Auschwitz Lie (Caso David Irving)

Autores

  • Brave

    é professor de Direito Constitucional do Instituto Brasiliense de Direito Público (IDP), assessor de ministro do Supremo Tribunal Federal, pós-doutorando em Direitos Sociais pela Universidade de Salamanca (Espanha), doutor em Direito Público pela Aix-Marseille Université (França) e mestre e especialista em Direito Constitucional pelo IDP.

  • Brave

    é mestre em Direito pela Universidade de São Paulo, pesquisadora do Grupo Erga Omnes e assessora de ministro do Supremo Tribunal Federal.

Tags:

Encontrou um erro? Avise nossa equipe!