Interesse Público

Temas necessários na regulação de mídias sociais

Autor

  • Vanice Valle

    é professora da Universidade Federal de Goiás visiting fellow no Human Rights Program da Harvard Law School pós-doutora em administração pela Ebape-FGV doutora em Direito pela Universidade Gama Filho procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

7 de março de 2024, 8h00

O imperativo de se proceder à regulação de componentes do universo digital – em especial, inteligência artificial e mídias sociais – se constitui uma quase unanimidade nos dias de hoje. O tema, todavia, corre o risco de encontrar soluções improvisadas, sob o impulso do temor da interferência indevida no processo eleitoral resultante no uso destas mesmas ferramentas. A edição pelo Tribunal Superior Eleitoral da Resolução 23.732, de 27 de fevereiro de 2024, que altera a Resolução nº 23.610, de 18 de dezembro de 2019, dispondo sobre a propaganda eleitoral, inflama ainda mais o discurso de que o titular da regulação desses mecanismos haveria de ser o Legislativo, criando uma pressão pela deliberação que pode se revelar danosa. O cenário evoca a lição de Couture: “o tempo se vinga das coisas que se fazem sem a sua colaboração”.

Responsabilidade das plataformas e liberdade de expressão

O problema da desinformação, e do uso de ambientes digitais para a violação a direitos de toda ordem, é hoje um desafio mundial. A par dos esforços de regulação em curso na União Europeia e em outros lugares do mundo, a casuística judicial enfrentada pela Suprema Corte estadunidense tem auxiliado, quando menos, no mapeamento dos riscos que se pretende mitigar por intermédio da referida atividade regulatória.

Um primeiro esforço de equacionamento desta espinhosa matéria foi apresentado pela Suprema Corte – doravante identificada como Scotus – nos casos Gonzalez v. Google LCC. e Twitter Inc. v. Taamneh, examinados no ano judiciário passado, nos quais se discutia o tema da responsabilidade de plataformas digitais de divulgação de conteúdo e mensageria pelos efeitos potenciais de material ali veiculado.

As hipóteses concretas ensejadoras das demandas envolviam óbitos em ataques terroristas por parte de grupos extremistas que recrutam e louvam suas próprias ações em plataformas digitais. Os precedentes buscavam estabelecer responsabilização das referidas empresas provedoras – vedada pelos termos da chamada Section 230 do Communications Act. A superação desse limite à responsabilidade se pretendia pela aplicação de normas afetas à prevenção ao terrorismo – no que não foram os autores bem-sucedidos.

Spacca

A matéria volta à pauta de Scotus no ano judiciário de 2023-2024, agora com dois conjuntos de casos agendados para deliberação, a saber: 1) Lindke v. Freed  (22-611) and O’Connor-Ratcliff v. Garnier (22-324); e 2) Moody v. NetChoice (22-277) and NetChoice v. Paxton (22-555).

O primeiro conjunto de casos envolve um aspecto de desinformação que tem passado desapercebido no debate brasileiro. A pergunta é: quando agentes públicos podem promover o bloqueio de comentários formulados por usuários de mídias sociais em suas próprias contas pessoais, sem violar a liberdade de expressão dos referidos comentaristas? Vale assinalar a relevância da questão, eis que os limites entre a manifestação pessoal e aquela como agente público constituem matéria pouco esclarecida entre a cidadania comum.

No Direito americano, de outro lado, a qualificação do agir do agente público como State action atrai a proteção da Primeira Emenda à liberdade de expressão, em escrutínio forte. Ainda que no Brasil o critério do State action não tenha a aplicação dilargada que se tem no cenário estadunidense, a confusão da manifestação pessoal do ocupante de cargo público com a narrativa formal do ente também público constitui igualmente uma expressão de desinformação. 

O segundo conjunto de demandas submetido à apreciação de Scotus suscita questão jurídica que pode ser compreendida a partir de diversas perspectivas. Afinal, cuida-se da impugnação prima facie – portanto, em sede de controle concentrado – de leis aprovadas nos estados do Texas e da Florida, que restringem o exercício pelas plataformas digitais da moderação de conteúdo. O eixo central de impugnação envolve uma vez mais a liberdade de expressão – desta feita, uma evocada liberdade de expressão das plataformas, no que se compreenderia um exercício de curadoria de conteúdo, e por consequência, a possibilidade do bloqueio da postagem, ou mesmo do usuário.

Aqui, é evidente que o reconhecimento do espaço de deliberação pelo legislador estadual para esse tipo de opção envolve também uma avaliação da constitucionalidade da restrição, pelo Estado, da operação de plataformas digitais e serviços de mensageria. Ainda esse aspecto não tem sido valorizado no debate brasileiro – aqui, é de se dizer, pela ausência mesmo de episódio fático assemelhado, que suscite a discussão posta em Moody v. NetChoice (22-277) and NetChoice v. Paxton (22-555).

A casuística americana pode, uma vez mais, lançar luz sobre complexidades inerentes à iniciativa de regulação de plataformas digitais, que vão muito além da espécie – do gênero desinformação – identificada vulgarmente como fake news. Uma primeira indicação mais evidente é de que a simples afirmação da existência de responsabilidade de parte dos provedores de ambientes digitais de interação estará longe de equacionar o problema, eis que a este reconhecimento será de se somar a disponibilização em favor das referidas empresas, de mecanismos hábeis à prevenção ou exclusão de conteúdos que se identifique como impróprios. Não há como se discutir o tema da responsabilidade – como posto, no cenário brasileiro, nos REs 1.037.396 e 1.057.258 – sem que se tenha em conta o instrumental a ser disponibilizado pelo reputada responsável (que não o autor do conteúdo); e nisso evidentemente se coloca a questão da liberdade de expressão.

Os debates orais já verificados em ambos os grupos evidenciam os riscos de uma regulação que se pretenda genérica, considerada a existência de várias outras plataformas de interação digital que poderiam ser alcançadas por um modelo concebido para incidir sobre aquilo que normalmente se identifica como mídia social – Facebook, Instagram, YouTube, Tik-Tok e “X” (ou Twitter, para os saudosistas).

A verdade é que há todo um universo de plataformas de interação digital que podem ser alcançadas por uma moldura construída sem que elas sejam tidas em consideração. Exemplo recorrente nos debates havidos em Scotus foi o de plataformas destinadas à comercialização como Etsy – ou no Brasil, Mercado Livre – em que os mesmos componentes tidos como geradores de efeitos indesejados (algoritmos, direcionamento, priorização, etc.) estão igualmente presentes, ainda que em menor proporção que nas conhecidas mídias sociais.

Deflui dessa discussão a importância de se ter em conta, tanto na regulação de mídias sociais quanto naquela da inteligência artificial, que nenhuma das duas se constitui uma unidade, com manifestações múltiplas – mas homogêneas. Plataformas de interação podem compreender até mesmo páginas de divulgação de conteúdo profissional – como essa em que está navegando o gentil leitor, que é chamado a empreender a comentários aos textos lidos. Assim, a pretensão de construir-se uma moldura regulatória igualmente aplicável a todas essas plataformas se constitui manifestação de ignorância na matéria ou onipotência – nenhuma das duas desejável, nem de parte do Legislativo (caso esse venha a efetivamente se animar a regular), nem do Judiciário (chamado a manifestar-se nos referidos REs 1.037.396 e 1.057.258).

Em verdade, o desafio da regulação de plataformas de interação digital e serviços de mensageria envolve aspectos que são inerentes às novas tecnologias – hiperevolução, caráter onmiuso e geração de impactos assimétricos – que não se tinha por presente em quaisquer dos outros suportes de interação social já utilizados na experiência humana. Nestes termos, os precedentes não auxiliam muito, eis que operam sob uma premissa de alcance e velocidade totalmente incompatível com o que a realidade aponta.

O compromisso com uma regulação efetiva sugere aproximações setoriais, que sejam precedidas de uma extrapolação de efeitos possíveis não só nos “usual suspects” – mas também em outros mecanismos que aderem à nossa prática diária, muitas vezes sem que nós sequer nos demos conta disso. Afinal, combater à desinformação também é propósito que se atende, seja com a prevenção da informação distorcida ou falsa, seja com a garantia de que, sem esses vícios, informações possam circular livremente.

Autores

  • é professora da Universidade Federal de Goiás, visiting fellow no Human Rights Program da Harvard Law School, pós-doutora em Administração pela Ebape-FGV, doutora em Direito pela Universidade Gama Filho, procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

Encontrou um erro? Avise nossa equipe!