Observatório Constitucional

Direitos fundamentais e regulação de plataformas digitais no Brasil

Autores

3 de junho de 2023, 8h00

O ano de 2023, sem prejuízo das acaloradas discussões travadas no Brasil e no mundo nos últimos tempos, tem sido particularmente agitado no que diz respeito aos debates em torno da regulação de plataformas digitais. No caso brasileiro, a controvérsia estava centrada no Projeto de Lei (PL) nº 2.630/2020 (popularmente conhecido como PL das Fake News), que chegou a ter uma de suas diversas versões pautada para votação na Câmara dos Deputados no dia 2 de maio transcurso, mas que, por falta de apoio político, não foi adiante. Além disso, não se poderia deixar de referir, nesse contexto, a inserção na pauta do Supremo Tribunal Federal (STF), do julgamento dos Temas 533 e 987 (Repercussão Geral), onde estão em causa, essencialmente, os limites da aplicação do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014) [1], que define os parâmetros da responsabilidade civil dos provedores de aplicações [2] por conteúdos gerados por seus usuários.

Spacca
Voltando os olhos para o que se passa além das nossas fronteiras, não se poderia deixar de mencionar que a Suprema Corte dos Estados Unidos, também não tem passado ao largo da discussão em torno da responsabilidade civil das plataformas digitais. No dia 18/5/2023, foram publicadas duas decisões (Reynaldo Gonzalez et al. v. Google LLC e Twitter, Inc. v. Taamneh et al.) que, de modo geral, definiram a impossibilidade, com base nos fatos alegados pelos requerentes, de responsabilizar os provedores de plataformas digitais pelo uso de algoritmos para distribuição de conteúdo a usuários, em virtude do argumento de que essa medida pertence ao modelo de negócio proposto por tais provedores. Nesses casos, todavia, estava em questão, não a responsabilização dos provedores por atos de seus usuários, mas, sim, por seus próprios atos.

Já no âmbito europeu, o Digital Services Act dá seus primeiros passos. No dia 25/4/2023, foram definidas quais são as plataformas em linha de muito grande dimensão (Very Large Online Platforms — Vlops) e os motores de pesquisa em linha de muito grande dimensão (Very Large Online Search Engines — Vloses), concretizando-se cada vez mais o escopo de aplicação de suas normas. Após essa definição foi aberto pela Comissão o prazo, findado em 31/5/2023, para apresentação de contribuições com o escopo de iniciar um debate multissetorial com os mais diversos interessados sobre o modo pelo qual as Vlops e Vloses deverão fornecer dados aos Coordenadores de Serviços Digitais, à Comissão e a pesquisadores, a fim de melhor concretizar, em particular, a liberdade de pesquisa. Ainda no contexto europeu, recentemente a Autoridade Irlandesa de Proteção de Dados multou a empresa Meta (dona do Facebook, do Instagram e do WhatsApp), com base no Regulamento Geral de Proteção de Dados Europeu (RGPD), em 1.2 bilhões de euros (cerca de R$ 6,4 bilhões, pela cotação atual) em razão do compartilhamento de dados de usuários europeus com os Estados Unidos.

Retornando ao Brasil, sem descurar de referências e a outras experiências, não há como deixar de mencionar que, não tendo logrado aprovação em tempo hábil para ser aplicado no âmbito do processo eleitoral de 2022, o debate sobre o PL das Fake News reacendeu após os brutais ataques às Instituições Democráticas em Brasília, DF, ocorridos no dia 8 de janeiro p.p., bem como com a trágica onda de violência nas escolas em todo o Brasil em abril deste ano, em especial dada a inércia dos provedores de plataformas no sentido da remoção de conteúdos postados por usuários, que visavam promover ou incentivar atos de violência. Aliás, é de se notar que com a edição, pelo Ministério de Justiça e da Segurança Pública, da Portaria nº 351, de 12/4/2023, para prevenção à disseminação online de conteúdos flagrantemente ilícitos, já se buscou tomar medidas destinadas a coibir conteúdos postados em plataformas de redes sociais que tenham o objetivo de promover ou incitar a violência nas escolas.

Imprescindível ressaltar que, a partir do avanço do PL das Fake News, diversas versões do PL passaram a ser discutidas. Inclusive, no final de março de 2023, o governo federal encaminhou sua própria versão à Câmara dos Deputados que passou a ser divulgada de modo não oficial a partir de meados abril. Em todo caso, além da versão substitutiva de março de 2022, as versões mais proeminentes do PL, até o início de maio, são a que foi consolidada no dia 18/4/2023, e a versão final do substitutivo, do dia 25/4/2022, como bem demonstra o quadro comparativo entre as versões do PL elaborado pelo Instituto de Tecnologia e Sociedade do Rio (ITS-Rio). Desde então, outras versões do PL passaram a ser elaboradas pelo Deputado Orlando Silva (PCdoB), Relator do PL na Câmara, com enfoque, sobretudo, na criação de um órgão supervisor de aplicação da lei.

Além disso, no final do mês de março do corrente ano, houve a realização de audiências públicas no âmbito do STF para debater a responsabilidade de provedores de aplicações por conteúdo gerado por seus usuários com base em notificação extrajudicial, assim como a possibilidade de tais conteúdos publicados ensejarem um dever de indenizar por parte dos provedores, nos casos de violação de direitos de personalidade, discurso de ódio ou conteúdo desinformativo (Recursos Extraordinários 1.037.396 e 1.057.258 – Temas 533 e 987, Repercussão Geral). Todavia, o julgamento, que chegou a ser pautado para o mês de maio, ainda não ocorreu.

Ainda durante o mês de maio deste ano outros episódios de grande relevo relacionados ao tema ocuparam as principais manchetes em todos os tipos de mídias, designadamente, a controversa atuação da Google Brasil Internet Ltda. e do Telegram (atualmente sem sede no Brasil) contrária ao PL das Fake News, que, para as referidas corporações, consiste no PL “da censura”. Em razão de ter sido publicado na página inicial da Google o posicionamento do provedor da plataforma contra o PL nº 2.630/2020, além da suposta manipulação do ranking de resultados, de modo a priorizar resultados de busca contrários à aprovação do PL, houve não apenas a abertura de procedimento no Conselho Administrativo de Defesa Econômica (Cade) contra a Google, por abuso de poder econômico, mas também a aplicação, por parte da Secretaria Nacional do Consumidor (Senacon), de multa no valor de R$ 1 milhão por hora, caso a Google, dentre outros, privilegiasse, de modo manipulativo, resultados favoráveis ao posicionamento da empresa contra o PL, em detrimento de achados favoráveis ao projeto legislativo.

Por sua vez, no tocante ao Telegram, que encaminhou, por meio de sua própria plataforma, mensagem aos seus usuários brasileiros com teor contrário ao PL, a querela chegou ao STF. O ministro Alexandre de Moraes, no âmbito do assim chamado inquérito das fake news (Inq. 4781), determinou a remoção da referida mensagem, ademais de obrigar o provedor do Telegram a enviar nova mensagem aos seus usuários, informando-os sobre o teor equivocado da notícia questionada, pelo fato de configurar clara desinformação. O Telegram, calha recordar, endereçou mensagem contra o PL nº 2.630/2020 apenas poucos dias após o ministro Alexandre de Moraes ter determinado a exclusão de anúncios das plataformas da Google, Meta (Facebook e Instagram), Spotify e Brasil Paralelo, propagados e impulsionados a partir do blog oficial da Google contra o PL das Fake News.

A partir das observações precedentes, que sumariamente recuperam alguns dos principais acontecimentos que, ao fim e ao cabo, gravitam em torno do tema da regulação das plataformas digitais no Brasil, nota-se, entre outros aspectos dignos de nota, que tal pauta apresenta uma dimensão claramente emocional e mesmo passional, envolvendo tanto a continuidade de uma polarização no corpo social, mas ao mesmo tempo evidencia a necessidade de avançar com o processo de construção de um modelo regulatório consistente e eficaz, mas acima de tudo constitucionalmente adequado.

Trata-se, aqui como em todos os lugares, de um tema altamente controverso, complexo, e que envolve interesses políticos e econômicos de praticamente incalculável monta. Além disso, e como era de se esperar, a pressão exercida em relação ao Congresso Nacional, mas também sobre o Poder Executivo e o Poder Judiciário, tem sido imensa.

No que diz respeito ao processo legislativo, cabe destacar que, desde a sua primeira versão, de 2022, o PL das Fake News já teve mais de 40% de seu texto modificado, avançando sobre aspectos até então não debatidos. Temas como imunidade parlamentar em redes sociais, a criação de uma entidade supervisora da aplicação da legislação, a remuneração por conteúdos jornalísticos e por conteúdos autorais, suscitam, entre outros pontos que poderiam ser colacionados, uma série de questões que não só mereceriam uma coluna própria, como também reclamam uma discussão mais aprofundada sobre os desdobramentos que eventual regulação das plataformas digitais no Brasil poderia desencadear.

De todo modo, para não deixar de abordar — sem prejuízo de uma retomada do tema em escritos posteriores neste mesmo espaço — alguns aspectos concretos relacionados com o conteúdo e alcance da regulação das plataformas digitais, vale mencionar a proposta da Comissão Especial de Direito Digital do Conselho Federal da Ordem dos Advogados do Brasil (CFOAB), que reconhece a necessidade de o cumprimento de eventual legislação ser supervisionado por um órgão independente, a exemplo do que costuma ocorrer com a Autoridade Nacional de Proteção de Dados (ANPD). Nesse sentido, a Comissão sugere a criação de um Sistema Brasileiro de Regulação de Plataformas Digitais, estruturado e organizado de forma tripartite, mediante a criação de um Conselho de Políticas Digitais (CPD), órgão deliberativo, composto por pessoas indicadas pelos Poderes Legislativo, Executivo e Judiciário, em nível federal, além de indicações por parte da Anatel (Agência Nacional de Telecomunicações), do Cade, da ANPD e do Conselho Federal da OAB. Além do referido Conselho, comporiam ainda o Sistema o Comitê Gestor da Internet no Brasil (CGI.br), na condição de órgão executor de estudos e de recomendações, bem como Entidades de Autorregulação, encarregadas de analisar casos práticos envolvendo moderação de conteúdo nas plataformas.

Além da evidente necessidade de garantir a independência do órgão supervisor (ou do sistema supervisor, como proposto pela Comissão Especial de Direito Digital do CFOAB), é imprescindível que a regulação desenhada à luz da proteção de direitos fundamentais seja também pautada por uma perspectiva concorrencial, de tal sorte que se possa calibrar a capacidade de influência das empresas provedoras de plataformas, na medida em que os ambientes digitais não se apresentam tão somente como meros espaços oferecidos por provedores aos seus usuários. Na linha do que foi decidido nos casos da Suprema Corte dos EUA sobre o tema, o modelo de negócio para gerenciamento de plataformas digitais envolve remuneração do provedor por meio de anúncios e conteúdos impulsionados e/ou patrocinados, além de conteúdos monetizados que viabilizam, por outra via, a remuneração do usuário criador de conteúdo.

Sendo assim, uma regulação constitucionalmente adequada, ao mesmo tempo em que observa a indispensabilidade de assegurar a proteção de direitos humanos e fundamentais na era da digitalização (e da multiplataformização!), também incorpora elementos para que práticas desleais sejam coibidas, evitando que conteúdos danosos venham ainda por cima a gerar lucro. Note-se que o PL nº 2.630/2020 ensaia algum direcionamento regulatório nesse sentido ao abordar, na versão consolidada em 25/4/2023, aspectos sobre os deveres de cuidado das plataformas, instalação de protocolos de segurança em situações de crise, dever de atenuação de riscos sistêmicos e responsabilidade solidária da plataforma em caso de impulsionamento de conteúdos danosos, mas que, ao revés, somados à indefinição acerca do órgão supervisor, não se encontram bem traçados de modo a garantir a segura e correta aplicação da lei.

Outrossim, como bem indica a Nota Técnica sobre o Projeto de Lei nº. 2630/2020 produzida pelo Grupo de Pesquisa Democracia Constitucional, Novos Autoritarismos e Constitucionalismo Digital, vinculado ao Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), e realizada com base na versão consolidada do PL de 18/4/2022, nota-se que a regulação do PL nº 2.630/2020 se aproxima de regulações europeias que têm por enfoque a implementação de modelos regulatórios procedimentais (process-based regulation) em ambientes online. Adverte-se, aqui, a título de exemplo, para a adoção da terminologia adotada no âmbito do Digital Services Act de "atenuação de riscos" ("mitigation of risks") e de deveres de cuidado ("duties of care"), esta última por sua vez adotada pelo Projeto de Lei do Reino Unido para regulação de plataformas digitais Online Safety Bill.

De outra parte, independentemente do que ainda está por vir, o que se percebe é que situações de comoção social tendem a acelerar as discussões em torno de esquemas regulatórios, o que no caso das plataformas digitais se revela particularmente evidente. Tal fenômeno, embora encerre um aspecto positivo, visto que movimenta a busca de soluções, também não deixa de ter um contraponto, porquanto a aceleração do debate tende a levar a problemáticas reduções de complexidade, a um déficit de legitimação democrático-deliberativa, contradições, hiatos regulatórios, além do esvaziamento do caráter multissetorial do debate, entre outros aspectos preocupantes, ainda mais em se levando em conta a elevada sensibilidade da matéria e seus inúmeros desdobramentos, como é o caso, em especial, do desafio de seguir assegurando a posição preferencial da liberdade de expressão.

 

 


[1] "Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário" (Art. 19, caput, do Marco Civil da Internet).

[2] O Marco Civil da Internet adota a terminologia "provedores de aplicações" para se referir ao que aqui abordamos como "provedores de plataformas digitais", haja vista que esta última vem sendo cada vez mais utilizada para o debate da pauta regulatória. Além disso, o Marco Civil da Internet não estabelece um conceito de "provedores de aplicações".

Autores

Tags:

Encontrou um erro? Avise nossa equipe!