Opinião

Discurso de ódio, redes sociais e o Marco Civil da Internet (parte 2)

Autores

  • Fernando Lottenberg

    é advogado mestre e doutor pela Faculdade de Direito da Universidade de São Paulo (USP) e presidente da Confederação Israelita do Brasil.

  • Rony Vainzof

    é consultor em Proteção de Dados da FecomercioSP sócio do Opice Blum Bruno e Vainzof Advogados e coordenador do curso de pós-graduação em Direito Digital da Escola Paulista de Direito (EPD) e do curso de Extensão em LGPD da Fundação Instituto de Administração (FIA).

13 de julho de 2018, 6h14

*Clique aqui para ler a primeira parte deste artigo.

Antes do Marco Civil da Internet, a jurisprudência do Superior Tribunal de Justiça era clara nesse sentido:

“A velocidade com que as informações circulam no meio virtual torna indispensável que medidas tendentes a coibir a divulgação de conteúdos depreciativos e aviltantes sejam adotadas célere e enfaticamente, de sorte a potencialmente reduzir a disseminação do insulto, minimizando os nefastos efeitos inerentes a dados dessa natureza.

Uma vez notificado de que determinado texto ou imagem possui conteúdo ilícito, o provedor deve retirar o material do ar no prazo de 24 (vinte e quatro) horas, sob pena de responder solidariamente com o autor direto do dano, em virtude da omissão praticada.

Nesse prazo de 24 horas, não está o provedor obrigado a analisar o teor da denúncia recebida, devendo apenas promover a suspensão preventiva das respectivas páginas, até que tenha tempo hábil para apreciar a veracidade das alegações, de modo a que, confirmando-as, exclua definitivamente o perfil ou, tendo-as por infundadas, restabeleça o seu livre acesso.

O diferimento da análise do teor das denúncias não significa que o provedor poderá postergá-la por tempo indeterminado, deixando sem satisfação o usuário cujo perfil venha a ser provisoriamente suspenso. Cabe ao provedor, o mais breve possível, dar uma solução final para o conflito, confirmando a remoção definitiva da página de conteúdo ofensivo ou, ausente indício de ilegalidade, recolocando-a no ar, adotando, nessa última hipótese, as providências legais cabíveis contra os que abusarem da prerrogativa de denunciar” (REsp 1.323.754 – 19/2/2012 – g.n)[1].

Porém, após a vigência da legislação em questão, veja-se a recente decisão do mesmo Superior Tribunal de Justiça:

“Sobre os provedores de aplicação, incide a tese da responsabilidade subjetiva, segundo a qual o provedor de aplicação torna-se responsável solidariamente com aquele que gerou o conteúdo ofensivo se, ao ser notificado a respeito da lesão, não tomar providências para a sua remoção. Precedentes.

Diante da ausência de disposição legislativa específica, este STJ havia firme jurisprudência segundo a qual o provedor de aplicação passava a ser solidariamente responsável a partir do momento em que fosse de qualquer forma notificado pelo ofendido.

Com o advento da Lei 12.965/2014, o termo inicial da responsabilidade do provedor de aplicação foi postergado no tempo, iniciando-se tão somente após a notificação judicial do provedor de aplicação.

A regra a ser utilizada para a resolução de controvérsias deve levar em consideração o momento de ocorrência do ato lesivo ou, em outras palavras, quando foram publicados os conteúdos infringentes: para fatos ocorridos antes da entrada em vigor do Marco Civil da Internet, deve ser obedecida a jurisprudência desta corte; Após a entrada em vigor da Lei 12.965/2014, o termo inicial da responsabilidade da responsabilidade solidária do provedor de aplicação, por força do art. 19 do Marco Civil da Internet, é o momento da notificação judicial que ordena a retirada de determinado conteúdo da internet” (REsp 1.642.997 – 15/9/2017).

Conforme leciona Anderson Schreiber:

“Em vez de disciplinar o notice and takedown, instituindo garantias recíprocas e assegurando a eficiência do seu funcionamento, a Lei 12.965, de 23 de abril de 2014, conhecida como Marco Civil da Internet, estabeleceu um mecanismo extremamente engessado, que cria uma proteção intensa para as sociedades empresárias que exploram redes sociais e reduz o grau de proteção que já vinha sendo fixado pela jurisprudência brasileira para os usuários da internet (…) Pior: na dicção legal do art. 19, o descumprimento de ordem judicial passa a ser condição necessária para a responsabilização dos provedores. Nesse contexto, a propositura de ação judicial deixa de ser mero instrumento de proteção dos direitos da vítima e de obtenção da reparação para se tornar uma condição sine qua non da responsabilidade civil”[2].

Rony Vainzof e o mesmo Anderson Schreiber, respectivamente, concordam que:

“No final da redação do art. 19, caput, do Marco Civil, ao excluir a necessidade de ordem judicial quando houver “disposições legais em contrário”, está claro, salvo melhor juízo, que o provedor de aplicações da Internet poderá responder civilmente no caso de sua inércia, a partir da ciência de qualquer conteúdo acusado como ilegal, assim previsto em Lei, como nos casos de ofensa aos direitos de personalidade, danos à imagem de empresas, crimes contra a honra, violação de propriedade intelectual, fraudes, ameaças, pornografia infantil, racismo etc.”[3].

“A salvação do art. 19 do Marco Civil da Internet somente pode ser alcançada por uma interpretação conforme à Constituição da República que dispensa a ordem judicial específica, contentando-se com mera notificação, sempre que o conteúdo em questão lese direitos da personalidade seja a intimidade sexual, como já reconhece o art. 21 da lei ordinária, seja qualquer outro atributo da responsabilidade humana que se afigure merecedor de tutela à luz do texto constitucional”[4].

Também para Claudio Luiz Bueno de Godoy, a nova regra prevista no Marco Civil da Internet pode ser considerada inconstitucional, pois estabeleceu, a priori, uma prevalência do direito à liberdade de expressão sobre outros direitos de igual hierarquia, como a honra ou a imagem das pessoas, além do que vulnerou o direito de defesa do consumidor previsto no inciso XXXII do artigo 5º da Constituição Federal[5].

Em importante decisão proferida pelo Tribunal de Justiça de São Paulo, após a vigência do Marco Civil da Internet, o desembargador relator Francisco Loureiro, em julgamento com votação unânime da 1ª Câmara de Direito Privado, acerca do artigo 19 da Lei 12.965/14, asseverou que a regra de que “o provedor de aplicações só pode ser responsabilizado civilmente por ato de terceiro após o descumprimento de ordem judicial específica determinando a remoção de conteúdo ilícito, não deve ser interpretada literalmente, sob pena de ser considerada inconstitucional”, conforme a seguinte fundamentação:

“A mais abalizada doutrina tece severas críticas à referida previsão normativa do Marco Civil da Internet, não só por constituir verdadeiro retrocesso no tratamento da matéria, mas, principalmente, por ter privilegiado os provedores em detrimento dos consumidores, e por ter conferido a priori supremacia a determinados direitos fundamentais em face de outros de igual relevância, contrariando totalmente o sistema jurídico e a tábua axiológica da Constituição Federal”.

(…)

“A jurisprudência brasileira vinha rechaçando a tese de não responsabilização dos provedores de aplicações pelas condutas de seus usuários. Não chegavam os Tribunais a adotar a teoria da responsabilidade objetiva por atividade de risco, mas sim a responsabilidade subjetiva, decorrente da inércia dos provedores em retirar o conteúdo lesivo mesmo após cientificação da vítima”.

(…)

“Nem se alegue que a interpretação não literal do art. 19 da Lei n. 12.964/14, ora proposta, pode acarretar situações de injustiça ou violação à liberdade de expressão, especialmente em casos de remoção de conteúdo lícito da Internet por denúncias levianas e infundadas de violações de direitos.
Primeiro porque a retirada desses conteúdos pelos provedores de aplicação não precisa ser imediata após o recebimento da notificação. Em outros países tem sido comumente aceito um prazo de 24 horas para a exclusão de conteúdos pelos provedores de aplicação, a fim de que possam, mediante determinados procedimentos e providências, assegurar-se minimamente da robustez da acusação formulada.
Ademais, diante do conflito entre os valores envolvidos, parece mais justo e razoável que, na hipótese de dúvida sobre a licitude do conteúdo, o provedor de aplicação o remova e, caso a denúncia se mostre açodada, depois o reinclua na rede. Afinal, a manutenção o site em nome da liberdade de expressão pode acarretar lesões irreparáveis aos direitos da personalidade da vítima”.

(…)

“Ressalto que não faz o menor sentido criar o artigo 19 do Marco Civil da Internet um novo requisito da responsabilidade civil do provedor, qual seja, o ajuizamento de ação judicial.
Parece evidente que tal requisito subverte todo o sistema de responsabilidade civil. A ação judicial deixou de ser o mecanismo de buscar a reparação de danos já consumados e passou a ser requisito da própria responsabilidade civil”. (g.n.)

(Apelação 1011391- 95.2015.8.26.0005 – 7/6/2016)

Fato é que a ampliação das relações intersubjetivas existentes na sociedade da informação, em tempo real, produz, automaticamente, novos conflitos, nascendo a necessidade cogente de se alcançar a paz social por meio da promoção da justiça de forma proporcional ao ambiente dinâmico existente no ambiente digital.

Desta forma, a partir da ciência de possível ilícito ou de uma reclamação do usuário, o provedor de aplicação deverá: (i) resolver diretamente a questão, em conformidade com as suas regras e o ordenamento jurídico aplicável, principalmente em demandas que envolvam discurso de ódio; ou, se assim não considerar pertinente, (ii) abrir um procedimento administrativo interno, com eventual contraditório e ampla defesa, adotando um posicionamento ao final. Caso quaisquer das partes discordem da respectiva decisão administrativa, poderá naturalmente buscar o Poder Judiciário para rever a definição pelo provedor de aplicação.

Assim, apesar de o artigo 19, caput, do Marco Civil da Internet não vedar a solução extrajudicial de remoção de conteúdo de ódio pelo provedor de aplicação de internet, ao limitar a sua responsabilidade por conteúdo gerado por terceiros, como já dito, flexibilizou a obrigação daqueles que não quiserem atuar de forma diligente.

Se antes, de forma zelosa, sob pena de serem responsabilizados solidariamente, os provedores deveriam intermediar para que eventuais conflitos existentes em sua plataforma fossem resolvidos — ou decidissem administrativamente para estancar imediatamente o ilícito —, agora, na hipótese de sua inércia, transferem toda a obrigação para sanar uma eventual conduta ilícita para a vítima, que, neste caso, terá que buscar o Poder Judiciário, o que em nossa opinião não se adéqua aos preceitos constitucionais vigentes.

Não é por acaso que o Supremo Tribunal Federal reconheceu a repercussão geral acerca da constitucionalidade do artigo 19 do Marco Civil da Internet, conforme os seguintes fundamentos:

“Ao entender que a parte irresignada teria sido omissa, sob a premissa de que, após notificada pela recorrida, deveria ter excluído o perfil apontado como impostor, o acórdão combatido também teria incorrido em violação do princípio da reserva de jurisdição, uma vez que incumbiria tão somente ao Poder Judiciário decidir se o perfil em questão era ou não falso e deveria, como consequência, ser censurado.
Insta definir aqui se, à luz dos princípios constitucionais e da Lei nº 12.965/2014, a empresa provedora de aplicações de internet possui os deveres (i) de fiscalizar o conteúdo publicado nos seus domínios eletrônicos, (ii) de retirar do ar informações reputadas como ofensivas mediante simples notificação extrajudicial e (iii) de se responsabilizar legalmente pela veiculação do aludido conteúdo antes da análise pelo Poder Judiciário”.

(…)

“Não fosse o suficiente, o debate atinente aos deveres e à responsabilidade legal dos provedores de aplicações de internet por atos ilícitos praticados por terceiros à luz da Lei nº 12.965/2014 poderá embasar a propositura de milhares e milhares de ações em todo o país. A par do impacto sobre o Judiciário, há de se considerar também o impacto financeiro sobre as empresas provedoras de aplicações de internet, o que pode, em última instância, reverberar na atividade econômica como um todo.
A par disso, a discussão em pauta resvala em uma série de princípios constitucionalmente protegidos, contrapondo a dignidade da pessoa humana e a proteção aos direitos da personalidade à liberdade de expressão, à livre manifestação do pensamento, ao livre acesso à informação e à reserva de jurisdição” (Recurso Extraordinário 1.037.396).

Assim, a partir do momento em que redes sociais são cientificadas — ou tomam conhecimento — de potenciais conteúdos ilegais, entendemos ser de extrema relevância a existência de mecanismos internos para solução extrajudicial do incidente, de forma célere e proporcional à sensibilidade de cada conteúdo apontando como infringente, por meio da autorregulação regulada, executando medidas para que seus respectivos Termos de Uso sejam cumpridos, assim como a legislação do país em que presta serviço, que, no caso do Brasil, veda expressamente o discurso de ódio em suas mais diversas matizes.

Caso contrário, estaremos diante de verdadeira responsabilidade subjetiva das redes sociais, que o Marco Civil da Internet buscou mitigar por meio de uma infeliz redação em que a prevê, de forma sui generis, a responsabilidade civil oriunda do descumprimento de ordem judicial, que deve, assim esperamos, ser considerada inconstitucional em breve pelo STF.

E mais, eventual declaração de inconstitucionalidade do referido artigo 19 não atingirá redes sociais, como intermediárias, que atuem de forma diligente ao tomarem ciência de qualquer potencial ilegalidade em sua plataforma, adotando medidas efetivas para soluções alternativas e eficazes, visando sanar o problema extrajudicialmente, pacificando as relações digitais, quer comerciais, quer pessoais, representando uma justiça horizontal e dinâmica, demonstrando que se preocupam com os seus usuários e com a manutenção de um ambiente saudável e frutífero.

O que se busca, enfim, é que a legislação permita a adoção de mecanismos ágeis para tratamento de solicitações extrajudiciais de remoção de conteúdo, em especial aqueles contendo discurso de ódio, mensagens discriminatórias, racistas e assemelhados.


[1] Em sentido semelhante: RESPONSABILIDADE CIVIL. AGRAVO REGIMENTAL. INTERNET. (…) 2. O provedor é responsável pelos danos morais, caso mantenha-se inerte quando solicitado a retirar conteúdo ofensivo veiculado em site sob seu domínio (…)” (STJ. AgRg no AREsp 229.712/RJ, Rel. Ministro JOÃO OTÁVIO DE NORONHA, Terceira Turma, julgado em 04/02/2014, DJe 14/02/2014. No mesmo sentido: (i) REsp 1192208/MG, Rel. Ministra NANCY ANDRIGHI, Terceira Turma, julgado em 12/06/2012, DJe 02/08/2012 e (ii) REsp 1306066/MT, Rel. Ministro SIDNEI BENETI, Terceira Turma, julgado em 17/04/2012, DJe 02/05/2012.
[2] Marco Civil da Internet: avanço ou retrocesso? A responsabilidade civil por dano derivado do conteúdo gerado por terceiro in Direito e Internet III Tomo II: Marco Civil da Internet (Lei n. 12.965/14), coord. Newton de Lucca e outros, São Paulo, Quartier Latin, 2015, p. 289/290.
[3] Da responsabilidade por danos decorrentes de conteúdo gerado por terceiros, in Marco Civil da Internet Lei 12.965/14, coord. Fabiano Del Masso e outros, RT, 2014, p. 203.
[4] Op. cit., p. 296/297.
[5] Uma análise crítica da responsabilidade civil dos provedores na Lei n. 12.965/14 (Marco Civil da Internet) in Direito e Internet III Tomo II: Marco Civil da Internet (Lei n. 12.965/14), coord. Newton de Lucca e outros, São Paulo, Quartier Latin, 2015, p. 316/317.

Autores

  • Brave

    é advogado, mestre e doutor pela Faculdade de Direito da Universidade de São Paulo (USP) e presidente da Confederação Israelita do Brasil.

  • Brave

    é advogado, mestre em Soluções Alternativas de Conflitos Empresariais, professor da pós-graduação em Direito Eletrônico na Escola Paulista de Direito e secretário da Confederação Israelita do Brasil.

Tags:

Encontrou um erro? Avise nossa equipe!