Direito Digital

Armadilhas e saídas para a regulação de fake news

Autores

  • Ricardo Campos

    é docente nas áreas de Proteção de Dados Regulação de Serviços Digitais e Direito Público na Faculdade de Direito da Goethe Universität Frankfurt am Main doutor e mestre pela Goethe Universität coordenador da área de Direito Digital da OAB Federal/ESA Nacional diretor do Instituto Legal Grounds e sócio do Warde Advogados.

  • Juliana Abrusio

    é sócia da área de Direito Digital e Proteção de Dados do Machado Meyer Advogados.

  • Juliano Maranhão

    é professor da Faculdade de Direito da USP sócio do Maranhão & Menezes e diretor do Instituto Legal Grounds.

23 de junho de 2020, 13h46

ConJur
Está marcada para a próxima quinta-feira (25/6) a votação do PL 2.630/2020 no plenário do Senado Federal. Merece especial atenção o referido PL do Senador Vieira e o relatório do Senador Angelo Coronel. Ambos os textos trazem bons pontos, outros nem tão bons e alguns perigos. Vale aqui se ater aos perigos, ou armadilhas, e esboçar algumas saídas baseadas na experiência internacional.

Devido à dinamicidade da tecnologia da comunicação e do mercado que, a partir dela, se estrutura, existe uma regra de ouro em termos de regulação: evitar grandes saltos e dar passos seguros. Fato é que o problema da manipulação da formação da opinião pública pelas fake news não será resolvido de uma hora para outra. É um problema multifacetado, que envolve as dimensões técnica, jurídica, econômica (ou do modelo de negócios das plataformas), educacional e cultural. Entretanto, isso não significa que não possamos dar passos certos e seguros na direção correta para minimizar o problema.

A primeira armadilha da discussão brasileira encontra-se na proposta de identificação compulsória de todas as contas de usuários de plataformas digitais, como forma de prevenir o ilícito, por facilitar a detecção da autoria e, consequentemente, sua repressão. Especialmente no relatório do Senador Angelo Coronel, há, no art. 5º, uma determinação para recadastramento de todas as contas pré-pagas de celular do país, com verificação de identidade dos seus titulares. Pela estimativa da Agência Nacional de Telecomunicações (Anatel), contabiliza-se mais de 122 milhões de linhas pré-pagas no Brasil com uma estimativa de que cerca de 0,25% delas apresentam alguma inconsistência cadastral. Aqui reside um tema delicado e possível armadilha. É certo que há diversas fraudes praticadas, cuja autoria é ocultada sob o manto dos chips pré-pagos. Mas combatê-la por meio do acúmulo de dados pessoais por plataformas privadas sobre todos os usuários é desproporcional, como já demarcou o STF em decisão recente, no qual reconheceu o assento constitucional da autodeterminação informacional1. Importante é entender o que seria o mínimo necessário de informação para reprimir fraudes.

Com isso descobre-se saída menos invasiva para a armadilha. Baseado na experiencia internacional, é possível desenvolver uma regulação que combata o problema das contas inautênticas invertendo o ônus da prova2. Nesse modelo, adotado, por exemplo, na Europa, não se exige de antemão a identificação generalizada, contornando-se, assim, o acúmulo indiscriminado de dados pessoais. Trata-se de estabelecer deveres procedimentais às plataformas3, notadamente o dever de oferecer uma funcionalidade para notificação de contas inautênticas na própria plataforma. A notificação fundamentada por terceiros ou por integrantes da própria provedora de aplicação, que responsáveis pela moderação de conteúdo, observam comportamento atípico, dá início a um procedimento de apuração, veloz e dinâmico, mas que garanta o contraditório. Esse procedimento somente se inicia e tem como seu pressuposto o dever de identificação do usuário da conta notificada. Em casos de fraude, pode-se exigir um grau maior de verificação de identidade. Enquanto não ocorre a identificação, as atividades da conta são suspensas e, após determinado período de revelia, a conta é cancelada. Feita a identificação o usuário notificado pode exercer a defesa do seu conteúdo ou atividade de postagem. Essa medida seria duplamente eficaz, ao promover uma limpeza do espaço virtual com a suspensão de contas que proliferem conteúdos tóxicos na rede e, ao mesmo tempo, ao elevar a capacidade de se reprimir usuários responsáveis pelo conteúdo de contas identificadas, além de se garantir a oportunidade de defesa.

Outra armadilha aparente no projeto é o enfrentamento da questão do direito de resposta. De fato, com a migração da produção e circulação de conteúdos das grandes organizações (mídia tradicional) para as redes sociais, os contornos jurídicos de um direito de resposta perderam em eficácia. Se antes uma retratação pelo mesmo veículo atingia de forma homogênea praticamente o mesmo público (vide caso Brizola/Jornal Nacional), atualmente o ofendido não dispõe de instrumentos para fazer chegar a todos uma possível retratação. Para suprir esse déficit, é recorrente no debate atual uma tentativa de adaptação do direito de resposta às novas condições da comunicação em plataformas digitais, o que toca a sensível questão da rastreabilidade da comunicação.

No caso do aplicativo WhatsApp, largamente difundido no Brasil, garantir a reparação na mesma medida da circulação do conteúdo "depreciativo" nos moldes postos pelo Senador Angelo Coronel, exigiria a armazenagem, pelo WhatsApp, de absolutamente todas as mensagens veiculadas para que, num segundo momento, após decisão judicial, fosse traçado o caminho da mensagem ilícita, com a finalidade de propagar em "igual medida", o direito de resposta. Veja que esse efeito de retratação levada efetivamente ao conhecimento de todos que foram expostos a conteúdo lesivo sequer poderia ser garantido na mídia tradicional de organizações. Essa proposta simplesmente anularia o modelo de negócio da plataforma em questão, que tem seu modelo centrado na criptografia de ponta-a-ponta na privacidade, modelo aliás, considerado pelo STF recentemente, como uma garantia para a liberdade de comunicação.4

Um ponto interessante do substitutivo proposto pelo Senador Angelo Coronel encontra-se no art. 13, o qual enfrenta a questão da moderação de conteúdo por plataformas. Aqui há um desenvolvimento frente à solução na qual a remoção de conteúdo por provocação de terceiros, depende de contraditório judicial, ao passo que a remoção por iniciativa da plataforma não depende de contraditório. Com a proposta, cria-se dever procedimental para os provedores de aplicação criarem mecanismos online para que o usuário com conteúdo removido ou suspenso por iniciativa do provedor possa recorrer e se defender. Não se propõe que esse contraditório deva ser exercido perante o judiciário, mas que seja interno à plataforma. O papel do judiciário aqui seria apenas observar se padrões mínimos do devido processo legal são assegurados pelo mecanismo de resposta adotado pela plataformas digitais 5. Esse passo é perfeitamente justificável, visto que, nos últimos anos, as plataformas digitais tornaram-se de fato a infraestrutura pública da comunicação diária da população e com isso há um interesse público adjacente em proteger a liberdade de expressão.

Passado pelas duas perigosas armadilhas, há que se perguntar qual o modelo de regulação mais adequado para lidar com o problema posto pelo fenômeno das fake news. Em um primeiro momento o que salta aos olhos na discussão brasileira é atenção dada ao plano individual. O aumento da pena para tipos penais, e até mesmo a criação de novas tipificações procuram aumentar o efeito de dissuasão de condutas ilícitas nas redes. Mas esse caminho pode pavimentar uma perigosa e indesejada criminalização do discurso público. Enquanto isso no plano internacional, as regulações no âmbito digital têm preconizado um viés menos focado no indivíduo e mais centrado no plano estrutural. Duas são as tendências: a primeira é a criação de deveres informacionais de trânsito ("Informationsverkehrpflicht") e a outra a atuação do Estado no modelo de uma autorregulação regulada.

Os chamados deveres informacionais de trânsito das plataformas ("Informationsverkehrpflicht") surgiram do contexto da proteção dos direitos de personalidade sob as novas condições da comunicação digital. Dois casos foram basilares nesse desenvolvimento: os casos de "autocomplete" em sites de busca6 e o já famoso caso "google-spain"7. Aqui, o ponto central foi reconhecer que uma efetiva proteção dos direitos de personalidade no âmbito digital deve inevitavelmente levar em conta as próprias condições elementares da infraestrutura comunicacional. Resumidamente, são criados deveres de cuidado no trânsito das informações, ou seja, exigir apenas que os provedores empreguem os melhores meios disponíveis para a proteção contra violação de direitos de terceiros de boa-fé8. Esse caminho de impor deveres procedimentais aos intermediários tem sido o caminho adotado na regulação europeia de direito de autor e propriedade intelectual presente nas Diretivas 2001/29/CE, 2004/48/CE e 2019/7909.

Já o instituto da autorregulação regulada tem sido mecanismo jurídico utilizado em larga escala para âmbitos tecnológicos10. Ela procura unir aspectos da autorregulação da indústria e da regulação externa (pelo Estado). Enquanto a autorregulação das empresas privadas dispõe da expertise e do conhecimento técnico do produto disponibilizado no mercado, ela pode perder de vista a implementação de interesses públicos gerais que não sejam congêneres ao mecanismo de mercado e aos interesses comerciais, criando-se um problema de legitimação das suas soluções perante a sociedade. Já a regulação estatal dispõe em primeira linha da capacidade de prescrição de interesses públicos sem, no entanto, ter ao seu lado o conhecimento técnico e a dinâmica necessária para implementação em ambiente em constante transformação e evolução tecnológica11.

A autorregulação regulada pretende combinar os aspectos positivos dos dois modelos de regulação. Por esse modelo intermediário, o Estado deve induzir os agentes de mercado a criar uma instituição de autorregulação, mais ampla e inclusiva do que o ambiente da empresa e com determinados procedimentos que assegurem o interesse público. Por exemplo, a instituição deve incluir procedimentos que garantam o direito de ampla defesa, uma reação rápida, em tempo hábil pela plataforma. Por outro lado, para ser inclusiva, a avaliação do conteúdo deve conter aportes de organismo representativo de diferentes setores da sociedade civil. Com esses elementos, a instituição ganha legitimidade e pode ser reconhecida pelo Estado como instituição oficial de autorregulação. Com isso a responsabilização do provedor jamais ocorre pelo conteúdo postado, mas apenas pelo procedimento ou pela omissão em adotar os procedimentos adequados de moderação de conteúdo. Foi esse o modelo escolhido na Alemanha, em 2018, para regulação das redes sociais no que se refere a hate speech e fake News. E a Alemanha tem apostado forte da experiência positiva da lei Netzwerkdurchsetzungsgesetzt de 2018: no último dia 19.06. foi aprovado pelo gabinete da chanceler Angela Merkel o endurecimento da lei seguindo as linhas gerais descrita nesse artigo sobre deveres procedimentais dos intermediários. No projeto que agora vai para o Bundestag e no Bundesrat (câmara baixa e alta do Parlamento federal) inclui deveres das plataformas de denunciem crimes previstos no projeto à polícia aumentando deveres de tráfico aos intermediários.

As propostas em discussão paras a regulação de fake News tem um grande mérito enfrentam esse problema grave para a democracia e mobilizam-se com propostas concretas para sua solução. Nesse enfrentamento, podemos nos aproveitar de modelos observados na experiência internacional. O Brasil não precisa criar uma regulação para o âmbito digital partindo do zero. Grandes inovações no âmbito regulatório, por melhores que sejam as intenções, podem representar uma grande armadilha para a proteção dos valores perseguidos. Quando o valor perseguido é a liberdade de expressão devemos ser ainda mais cautelosos.


1 Ver ADI 6387, Relatora Ministra Rosa Weber, Julgamento em 07/05/2020.

2 Ricardo Campos, Juliano Maranhão e Juliana Abrusio, O impasse das contas inautênticas na regulação das redes sociais, Coluna Direito Digital, Conjur 09.06.2020, https://www.conjur.com.br/2020-jun-09/direito-tecnologia-impasse-contas-inautenticas-regulacao-redes

3 Diretivas 2001/29/CE, 2004/48/CE e 2019/790.

4 Ver ADPF 403, Relator Ministro Edson Fachin (julgamento interrompido por pedido de vista do Ministro Alexandre de Moraes em 28/05/2020.

5 Sobre esse desenvolvimento de Cyber Courts ver Karl-Heinz Ladeur, Por um novo direito das redes digitais, em: Ricardo Campos, Georges Abboud, Nelson Nery Jr, (Orgs.) Fake news e Regulação, 2 edição, São Paulo 2020, p. 19 – 40.

6 BHG NJW 2013, 2348, Leitsätze 1-3 "Autocomplete". Ver também caso julgado pela corte constitucional alemã BVerfGE 54, 148 (153) "Eppler".

7 Ver decisão do tribunal europeu EuGH, 13.05.2014 – C-131/12.

8 Na doutrina de direito civil alemão, o novo modelo de responsabilidade de intermediários desenvolveu-se por via jurisprudência através da criação de deveres de cuidado („deliktische Sorgfaltpflichten“) calcados no §823 I BGB. Para tanto ver Kötz/Wagner, Deliktsrecht, 12. Edicao 2013, notas marginais 305.

9 Na Diretiva 2019/790 da União Europeia, por exemplo, o Artigo 17(4) estabelece a obrigação de que os provedores de serviço digital estabeleçam mecanismos para remover conteúdos protegidos por direito autoral em caso de solicitação do detentor dos direitos. O mesmo ocorre na terceira linha do art. 11 da Diretiva europeia 2004/48/CE e art. 8 inciso 3 da Diretiva europeia 2001/29/CE.

10 Ver Juliano Maranhao, Ricardo Campos Fake News e autoregulação regulada das redes sociais no Brasil: fundamentos constitucionais, em: Ricardo Campos, Georges Abboud, Nelson Nery Jr, (Orgs.) Fake news e Regulação, 2 edição, Sao Paulo 2020, p. 19 – 40. p. 219 ss.

11 Karl-Heinz Ladeur: Die Regulierung von Selbstregulierung und die Herausbildung einer "Logik der Netzwerke". Rechtliche Steuerung und die beschleunigte Selbsttransformation der postmodernen Gesellschaft, em: Regulierte Selbstregulierung als Steuerungskonzept des Gewährleistungsstaates Ergebnisse des Symposiums aus Anlaß des 60. Geburtstages von Wolfgang Hoffmann-Riem, Die Verwaltung. Beihefte, Bd. 4 (2001), p. 60 ss.

Autores

  • Brave

    é diretor do instituto LGPD (Legal Grounds for Privacy Design) e docente assistente na Goethe Universität Frankfurt am Main (ALE).

  • Brave

    é diretora do instituto LGPD, doutora em Direito e professora da Universidade Presbiteriana Mackenzie. Sócia da Opice Blum, Bruno, Abrusio e Vainzof Advogados Associados.

  • Brave

    é diretor do instituto LGPD, professor Livre-Docente da Faculdade de Direito da USP, membro do Comitê Diretor da International Association of Artificial Intelligence and Law e pesquisador da Fundação Alexander von Humboldt.

Tags:

Encontrou um erro? Avise nossa equipe!