Interesse Público

Sem fiscalização estatal, regulação das redes sociais será puramente retórica

Autor

  • Vanice Valle

    é professora da Universidade Federal de Goiás visiting fellow no Human Rights Program da Harvard Law School pós-doutora em administração pela Ebape-FGV doutora em Direito pela Universidade Gama Filho procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

4 de maio de 2023, 8h00

Os jornais de ontem (3/5) noticiavam a retirada de pauta do PL 2.630,vulgarmente conhecido como o "PL das Fake News", numa tentativa de construção de consensos mínimos que viabilizem a sua aprovação. A matéria, que tramitava no Congresso Nacional desde 2020, ganhou impulso no debate público com o reconhecimento, em território nacional e por todo o mundo, de que a arena ofertada pelas plataformas de interação a partir da chamada Internet 2.0 permite a formação de ambientes tóxicos, nos quais se identifica a reprodução de comportamentos reputados como socialmente indesejáveis.

Spacca
A aprovação do regime de urgência imposto ao PL 2.630/2020 evidencia uma prioridade de que o assunto parece ter se revestido, impulsionada por um diagnóstico que é relativamente conhecido dos males da desinformação, do discurso de ódio e do preconceito, dentre outros. A preocupação desta escriba não é com o diagnóstico amplamente veiculado, mas sim com a prescrição que parece se traduzir na proposta legislativa que se busca agora celeremente aprovar.

O PL 2.630/2020 inicialmente buscava combater a disfuncionalidade das redes sociais que naquele momento preocupava à classe política, a saber, a desinformação — não por outra razão o nome vulgar que lhe foi conferido. Afinal, sua apresentação se deu em maio de 2020, momento em que a sociedade brasileira vivenciava a curva ascendente da epidemia de Covid, período propício à desinformação. Uma sucessão de acontecimentos e denúncias públicas agregaram ao debate o potencial nocivo da veiculação de comunicações divisivas e o incentivo a condutas que se reputa erosivas do ambiente social. Tinha-se assim por definitivamente caracterizado o relativo consenso quanto à necessidade de algum tipo de regulação.

Novo impulso ao debate se teve com controvérsias havidas no período eleitoral em 2022; com o infeliz episódio de 8 de janeiro; e, mais recentemente, com ocorrências de violência em escolas. Finalmente, adicione-se ao caldo de cultura a Audiência Pública nº 38, convocada pelo Supremo Tribunal Federal tendo em conta a imputação de inconstitucionalidade do artigo 19 da Lei 12.965/2014 (Marco Civil da Internet), que regula a responsabilidade civil dos provedores de conteúdo. Têm sido frequentes as referências, de parte dos ministros, a que preferível seria que a matéria fosse disciplinada pelo Legislativo — mas que se a Casa de Leis se revelar morosa ou incapaz de deliberar, que o STF o fará, aparentemente indo além da simples declaração de nulidade do dispositivo questionado. O adiamento da votação havido ontem parece sugerir que essa seja uma real possibilidade no cenário — o futuro dirá.

Dois pontos em especial gostaria de destacar ao amável leitor interessado no debate: os riscos da simplificação, firmada no pensamento computacional [1]; e com o encantamento com a autorregulação regulada.

No campo da simplificação, tem-se a recorrência de sugestões, inclusive e em especial de profissionais do Direito, no sentido de construir-se uma matriz de proibição; de vedação a condutas a serem tipificadas para esta finalidade específica (constrição à veiculação em redes sociais). Segundo um raciocínio simplista, de quem tem pouca familiaridade com o tema, eleitas as condutas indesejáveis, os algoritmos seriam capazes de empreender à filtragem — e pronto!

O raciocínio é simplista por várias razões. Sem adentrar em maiores debates, vêm-me à cabeça o conhecido episódio em que o Justice Potter Stewart, da Suprema Corte americana, perguntado sobre qual o teste que ele aplicava para classificar um material como pornográfico, respondeu: "eu sei quando eu vejo". No texto submetido a conhecimento do Plenário com o parecer do relator (que decerto sofrerá alterações), em 27 de abril de 2023, tem-se, por exemplo, a referência à vedação, no artigo 11, VI, à disseminação de conteúdos ilegais que possam configurar violência contra a mulher. A relevância da proteção à segurança da mulher é autoevidente; o problema está na sugestão de que uma prática como essa, abrangida num conceito pleno de indeterminações, encontre, na simples aplicação de algoritmos, o bloqueio desejado. Em tempos de #metoo, supor que a violência contra mulher se resuma a condutas no extremo de certeza positiva é uma simplificação que não se coaduna com a realidade.

Não é só a indeterminação do conceito em si que desafia a identificação de postagens ilícitas que o discurso simplificador afirma acontecerá automaticamente. Soma-se, ao problema da textura aberta do conceito, o uso do algospeak, que é a prática de alterar grafia ou estrutura de frases para "enganar" os algoritmos. A par disso, e não menos importante, tem-se a precariedade ainda, desses mesmos mecanismos algorítmicos, para a aplicação de inteligência de contexto — que é o que permite identificar, num conjunto de signos de comunicação que pode reunir imagens e texto, qual seja efetivamente o papel da alusão supostamente suspeita na mensagem.

A evocação aos mecanismos aplicados pelos algoritmos para coibir a violação a direito autoral — já vi essa referência empreendida por alta autoridade do Judiciário — é inteiramente inadequada. Afinal, no campo da proteção ao direito autoral, o algoritmo identificará hipóteses de identidade absoluta; já no campo da proteção a valores como a segurança da mulher, o que se busca coibir é uma intencionalidade de ataque que pode se apresentar de maneira mais sub-reptícia.

Todas estas sutilezas escapam àqueles que se aproximam do problema a partir do já referido pensamento computacional — aquele que manifesta um "solucionismo"; a crença de que qualquer problema se resolve quando se aplica a computação. Assim, se os riscos vêm do ambiente digital, nada melhor do que o uso das próprias ferramentas digitais para o combate, diz a visão simplificadora da questão. Ocorre a esta escriba uma outra frase, agora de Mencken: "Para todo problema complexo existe sempre uma solução simples, elegante e completamente errada".

Cabe agora uma rápida menção ao segundo ponto — o do encantamento com a autorregulação regulada. Valho-me, para essas considerações, do conceito traçado por Moreira Neto [2], segundo o qual se tenha autorregulação dirigida ou autorregulação regulada onde decisões estatais heterorreguladoras traçam pautas gerais a serem observadas pelos agentes autorreguladores. A técnica é especialmente útil em searas sujeitas a intensa dinâmica nas suas práticas operacionais e de negócios. A decisão estatal se dará em relação a valores nucleares, que devem orientar o desenvolvimento da atividade regulada — e os detalhes da proteção operacional a esses mesmos valores se daria pelos agentes executores e igualmente autorreguladores. Essa é a opção que se tem identificado no PL 2.630, com a conjugação, de um lado, de princípios e vedações instituídas por lei; e de outro lado, com a disciplina de um dever de cuidado, cujos detalhes operacionais hão de ser identificados por cada qual dos agentes.

É certo que a proposição da autorregulação regulada tendencialmente favorece uma atualidade dos mecanismos de supervisão e controle das comunicações havidas no ambiente das redes sociais — mas isso não dispensa, evidentemente, a existência de estruturas estatais que zelem quanto à aderência da autorregulação, aos parâmetros estabelecidos pelo Estado. Neste sentido, a proposição, como se chegou a veicular na mídia, de uma regulação que não conte com esta estrutura fiscalizadora, é uma atuação puramente retórica, que não permitirá o choque civilizatório que se está a reclamar do ambiente digital.

Destaco ainda que a ausência de um fórum específico de controle e monitoramento da aderência das práticas autorreguladas dos agentes econômicos envolvido aos valores fixados na regulação estatal dialoga com o ponto de fragilidade inicialmente apresentado, a saber, a dificuldades de delineamento do tipo de comunicação que se deseja limitar. Conceitos abertos são informados por concepções sociais que mudam com o tempo. É só no plano da supervisão permanente da autorregulação desenvolvia pelas plataformas que se poderá acompanhar a evolução do sentido que estas estejam conferindo, para fins de coerção de publicações, a expressões como "discurso de ódio", ou a condutas como "automutilação".

O tema é sensível, e não principalmente por conta dos interesses econômicos envolvidos — como tanto se fala, não totalmente sem razão. Mais do que interferir no grande negócio de venda de dados pessoais e propaganda que as mídias sociais se tornaram, regular mídia social hoje é um mecanismo poderoso de modelagem de comportamentos e da narrativa predominante em qualquer terreno — político, econômico e dos costumes. Haverá quem resista a perder essa ferramenta poderosa, e quem queira conquistá-la para si. A tensão estabelecida entre esses interesses se manifestou na suspensão da votação — mas não pode paralisar o debate público. Este talvez esteja sendo a vítima maior de um jogo de poder que tem envolvido a iniciativa de regulação de mídias sociais

 


[1] BRIDEL, James. A nova idade das trevas. A tecnologia e o fim do futuro. São Paulo: Todavia, 2019.

[2] MOREIRA NETO, Diogo de Figueiredo. Direito regulatório. A alternativa participativa e flexível para a Administração Pública de relações setoriais complexas no Estado Democrático. Com introdução de Luis Roberto Barroso. Rio de Janeiro – São Paulo: Renovar, 2003, p. 81-82.

Autores

  • é professora da Universidade Federal de Goiás, visiting fellow no Human Rights Program da Harvard Law School, pós-doutora em Administração pela Ebape-FGV, doutora em Direito pela Universidade Gama Filho, procuradora do município do Rio de Janeiro aposentada e membro do Instituto de Direito Administrativo do Estado do Rio.

Tags:

Encontrou um erro? Avise nossa equipe!