Opinião

Quando o medo dita o ritmo da regulação das plataformas digitais

Autores

  • Daniel Becker

    é sócio do BBL Advogados diretor de novas tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA) membro das Comissões de Assuntos Legislativos e 5G da OAB-RJ e organizador dos livros O Advogado do Amanhã: Estudos em Homenagem ao professor Richard Susskind O fim dos advogados? Estudos em homenagem ao professor Richard Susskind vol. 2Regulação 4.0 vol. I e II e Litigation 4.0.

  • Luiza Pontes de Miranda Bretz

    é advogada sênior de contencioso e arbitragem do BBL Advogados com atuação em demandas cíveis em tribunais estaduais e federais em todas as instâncias e experiência como secretária administrativa de tribunais arbitrais sob as regras de diferentes instituições em casos envolvendo disputas contratuais construção fornecimento de energia e direito societário graduada pela Universidade Federal do Rio de Janeiro (UFRJ) e LLM em Direito Societário e Mercado de Capitais na FGV-RJ.

3 de maio de 2023, 15h27

Pela primeira vez, a Suprema Corte dos Estados Unidos (Scotus) analisará a Seção 230 do Communication Decency Act (DCA), adotada em 1996 no país, a qual dispõe, objetivamente, que sites e outros serviços online não são responsáveis pelo conteúdo de terceiros.

Não é exagero dizer que se trata de um dos julgamentos mais importantes da década, e o tema a ser enfrentado pela Scotus é estranhamente familiar a uma discussão, também em pauta, no Supremo Tribunal Federal (STF): a constitucionalidade do artigo 19 do Marco Civil da Internet (MCI). No seminal Laws of Fear (Leis do Medo, em tradução livre), o professor Cass Sunstein argumenta que o medo se tornou um fator significativo na formação de políticas públicas e na elaboração de leis. Mas, para que paralelos sejam traçados, analogias realizadas e lições aprendidas, é importante que se entenda o que está em jogo nos Estados Unidos, para depois voltarmos nossos olhos para o Brasil.

Após um breve período de vácuo regulatório a partir da proliferação da internet e algumas decisões isoladas (Cubby, Inc. v. CompuServe Inc.; Stratton Oakmont, Inc. v. Prodigy Services Co.), nas quais se discutia a responsabilidade por conteúdo de terceiros, o Congresso americano editou a Seção 230, que cria imunidades para intermediários online, mas, ao mesmo tempo, permite que determinados conteúdos obscenos, lascivos, excessivamente violentos, assediadores ou de outra forma censuráveis sejam objeto de remoção proativa para fins de promoção de um ambiente seguro ou familiar em seus provedores, plataformas, aplicações, etc.

Por que, hoje, a Seção 230 se encontra na berlinda? O caso Gonzalez v. Google tem, como pano de fundo, o assassinato de uma jovem americana durante o ataque terrorista perpetrado pelo Estado Islâmico (ISIS) em 2015. A família Gonzalez afirma que a causa principiante do ataque decorreria de uma suposta política leniente do YouTube que, por meio de seus algoritmos, facilitaria e subsidiaria o alcance e a distribuição de conteúdo extremista para usuários propensos ao consumo desses materiais. No entendimento dos parentes da vítima, a causa, desencadeada pela plataforma, resulta no incentivo ao recrutamento voluntário por parte de seus usuários à integração de grupos terroristas.

Em primeira instância, o juízo, em linhas gerais, consignou que a maioria dos pedidos da família Gonzalez ia de encontro à Seção 230 do DCA, e que não foi adequadamente demonstrada causalidade nos pleitos de responsabilidade direta do Google. A Corte de Apelação do 9º Circuito, por sua vez, confirmou a decisão, mas consignou que a Seção 230 não impedia o prosseguimento dos pedidos de responsabilização do Google pelo alegado compartilhamento da receita proveniente da publicidade do Isis, de modo que poderia ser considerado diretamente responsável por fornecer suporte material ao grupo terrorista e incorrer em responsabilidade secundária por assistência. Importante destacar que a Corte de Apelação pontuou que os algoritmos do Google não tratavam o conteúdo criado pelo ISIS de forma diferente de qualquer outro conteúdo criado por terceiros e, portanto, manteve a deferência à imunidade prevista na Seção 230.

A família Gonzalez, contudo, conseguiu levar o tema à Suprema Corte, principalmente para a análise da responsabilização das plataformas digitais sob a Seção 230 e a política de algoritmos e da recomendação automática de conteúdos com base no perfilamento de usuários. Isto é, a análise do perfil, dados, interesses e comportamento do usuário na internet para direcionamento do conteúdo a ser consumido.

Em outubro de 2022, a Scotus concedeu o certiorari, decisão de admissibilidade para julgamento do recurso, juntamente com outra apelação originada no caso Twitter, In. v. Taamneh. Nesse último, também se busca indenização com fundamento no Anti-Terrorism Act (ATA), uma vez que os autores alegam que a plataforma de mídia social permitia que o ISIS postasse conteúdo terrorista para radicalizar e recrutar usuários.

Estima-se que, até o final de junho, a Scotus proferirá uma decisão sobre os recursos e, no fim das contas, sobre a imunidade conferida pela Seção 230 do DCA e eventual necessidade de adequação das plataformas a um possível novo paradigma nos Estados Unidos.

Aqui no Brasil, a discussão sobre a responsabilização das plataformas de internet e aplicativos também está em voga, sobretudo diante do cenário político dos últimos anos e do inflamado debate sobre o Projeto de Lei nº 2.630/2020 (PL das Fake News), que pretende criar medidas de combate à propagação de conteúdo falso nas redes sociais e nos serviços de mensagens privadas, excluindo-se serviços de uso corporativo e e-mail, e estabelecendo sanções para o descumprimento da lei.

Reprodução/Twitter
O herdeiro Elon Musk, hoje dono do Twitter
Twitter

Corroborando o intenso debate sobre o tema, em abril de 2023, depois de episódios de violência em escolas brasileiras, o Ministério da Justiça e Segurança Pública do Brasil (MJSP) editou a Portaria nº 351/2023, por meio da qual empresas poderão figurar em processos administrativos para apuração e sua responsabilização se não removerem conteúdo indicado como ilícito pela Secretaria Nacional do Consumidor (Senacon). Além disso, as plataformas deverão informar o MJSP sobre suas políticas de algoritmos.

Em breve, questões semelhantes também serão analisadas e julgadas no STF, por meio do Recurso Extraordinário 1.037.396/SP, interposto pelo Facebook Serviços Online do Brasil Ltda., e do Recurso Extraordinário 1.057.258/MG, interposto pelo Google Brasil Internet — Temas 987 e 533 da Repercussão Geral, respectivamente, nos quais, em linhas gerais, se discute o regime de responsabilidade de provedores de aplicativos ou de ferramentas de internet por conteúdo gerado pelos seus usuários, e a possibilidade de remoção de conteúdos, a partir de notificação extrajudicial, que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas.

São discussões tão complexas e delicadas que, no final de março deste ano, ocorreu audiência pública, adiada em 2020 por causa da pandemia, para tratar dos temas em questão.

A sessão contou com a exposição de inúmeros participantes, e o ponto nevrálgico de debate foi a constitucionalidade do artigo 19 do MCI e a eventual necessidade de regulamentação complementar. Pela lei vigente, os provedores de aplicações de internet apenas são civilmente responsabilizados pelo conteúdo disponibilizado pelos seus usuários se, após ordem judicial específica, não excluírem o material indicado.

Em exposições acaloradas, restou nítido o receio quanto à atuação de provedores e plataformas digitais frente a conteúdos ofensivos, discursos de ódio e fake news, sobretudo diante da previsão legal de ser necessária a intervenção judicial para a obrigatoriedade da exclusão desse tipo de conteúdo. Na audiência pública, os representantes das plataformas digitais buscaram afastar a premissa de inércia dos provedores, pontuando que a maior parte das remoções de conteúdo problemático sequer decorre de ordens judiciais. Apontaram, ainda, o investimento massivo em equipes e, inclusive, em inteligência artificial para moderação proativa e eventual exclusão de conteúdo visando à segurança e à integridade dos usuários.

Porém, como objetivamente levantado pelo representante do Google, Guilherme Sanchez, por mais moderna e desenvolvida que seja a política de moderação de conteúdo da plataforma, não há como lidar com todo conteúdo problemático postado online, tendo em vista a variedade e a complexidade com que se apresenta na internet. Sobre este ponto, o representante do Mercado Livre, Humberto Chiesi, destacou que, embora haja um intenso investimento em equipe interna, tecnologia e funcionalidades para o combate preventivo e repressivo a conteúdo irregular, há as chamadas "situações invisíveis", que são questões subjetivas, temas regulatórios específicos e aspectos técnicos, cuja identificação é de extrema dificuldade, inclusive pelas autoridades competentes.

O representante do Facebook, Rodrigo Ruf Martins, também ressaltou a cautela com que deve ser discutida a modificação da legislação vigente e sua regulamentação complementar, porque o artigo 19 do MCI determina uma solução equilibrada que possibilita a autorregulação dos provedores e plataformas, bem como indica o caminho para os casos ambíguos, com a intervenção do Poder Judiciário, garantindo-se, ainda, outros direitos fundamentais, como a reparação de danos.

Sobre este ponto, adveio a referida portaria do MJSP, na qual restou apressadamente consignado que "as plataformas de redes sociais não são simples exibidoras de conteúdos postados por terceiros, mas mediadoras dos conteúdos exibidos para cada um dos seus usuários". Não obstante a pendência do julgamento pelo STF e a discussão da regulação das redes sociais no Congresso Nacional por meio da PL das Fake News, a portaria determina, à força, a retirada imediata de conteúdos após a solicitação das autoridades competentes, sem a necessidade de ordem judicial, bem como a possibilidade de sanções com o bloqueio dos serviços das plataformas, indo de encontro ao MCI.

Como se não bastasse, o velho e revelho PL das Fake News, que também visa responsabilizar plataformas civil e administrativamente, tramita no Legislativo a todo o vapor, com inúmeras emendas e substitutivos. Embora ele, por si só, merecesse um artigo próprio, é importante de dizer que, ao final, dificilmente a sociedade sairá ganhando ao final da legislatura.

E para onde convergem as discussões norte-americana e brasileira sobre a alteração da legislação vigente? Para o possível comprometimento da liberdade de expressão garantida no First Amendment dos Estados Unidos, na Constituição Federal do Brasil e nas próprias leis que regulam a internet.

Isso porque a consequência lógica da modificação das legislações vigentes aqui tratadas é o aumento considerável da remoção subjetiva de conteúdo para mitigação de riscos. É importante pensar que a responsabilização das plataformas como se fossem publicadoras do conteúdo que hospedam levaria a um dever genérico de monitoramento de absolutamente todo material produzido pelos usuários, seja nocivo ou não, o que pode vir a desnaturar o ambiente plural, dinâmico e inovador da internet.

Medo e regulação excessiva. Tal relação de causa e consequência leva a uma variedade de resultados negativos, incluindo a erosão das liberdades civis, a criminalização excessiva de delitos menores e a proliferação de regulamentações excessivas e desnecessárias. Terrorismo e discursos de ódio geram pânico na sociedade de forma contagiosa, e a regulação, embora necessária, também pode ser um instrumento de abuso, se motivada pelo medo e não pela razão.

No caso do Brasil, o cenário de medo poderá gerar a obrigação para as plataformas de remover ou bloquear conteúdo a partir de denúncias dos próprios usuários ou de determinação dos órgãos competentes para que não sejam responsabilizadas pelo conteúdo ofensivo postado por terceiros, o que pode provocar um cenário de autocensura. Teme-se que, por se tratar de um tema polarizado e inflamado, sejam tomadas decisões precipitadas em uma questão de tamanha relevância que trouxe tantos benefícios para a sociedade e a economia do país. Para tanto, é imprescindível que as discussões sobre a alteração das legislações em vigor partam de um debate aprofundado e de estudos apartidários, com mais dados e menos ideologia.

Autores

  • é sócio do BBL Advogados, diretor de novas tecnologias no Centro Brasileiro de Mediação e Arbitragem (CBMA), membro das Comissões de 5G e Assuntos Legislativos da OAB/RJ, e organizador dos livros O Advogado do Amanhã: Estudos em Homenagem ao professor Richard Susskind, O fim dos advogados? Estudos em Homenagem ao professor Richard Susskind — vol. II, Regulação 4.0, vols. I e II, Litigation 4.0 e Comentários à Lei Geral de Proteção de Dados, todos publicados pela Revista dos Tribunais.

  • é advogada sênior de contencioso e arbitragem do BBL Advogados, com atuação em demandas cíveis em tribunais estaduais e federais, em todas as instâncias, e experiência como secretária administrativa de tribunais arbitrais sob as regras de diferentes instituições, em casos envolvendo disputas contratuais, construção, fornecimento de energia e direito societário, graduada pela Universidade Federal do Rio de Janeiro (UFRJ) e LLM em Direito Societário e Mercado de Capitais na FGV-RJ.

Tags:

Encontrou um erro? Avise nossa equipe!