Direito Digital

Moderação de conteúdo: regulação, desregulação ou autorregulação das redes

Autores

  • José Humberto Fazano Filho

    é doutorando em Direito pela Pontifícia Universidade Católica de São Paulo (PUC-SP) pesquisador no Legal Grounds Institute e advogado.

    View all posts
  • Tatiana Bhering Roxo

    é mestre em Direito do Trabalho pela Pontifício Universidade Católica de Minas Gerais (PUC-MG) sócia do Barra Barros e Roxo Advogados advogada nas áreas trabalhista e de privacidade e proteção de dados pessoais professora convidada nos cursos de pós-graduação em Direito e Processo do Trabalho da Universidade Presbiteriana Mackenzie e em cursos de pós-graduação cursos in company e de curta duração e autora de artigos e livros.

    View all posts

2 de maio de 2023, 12h34

Dando continuidade à apresentação dos temas debatidos no Seminário Democracia e Plataformas Digitais, o terceiro painel teve o seguinte tema: "Moderação de Conteúdo: Regulação, Desregulação ou Autorregulação das redes".

Participaram dos debates os professores Laura Schertel Mendes (IDP), Floriano de Azevedo Marques Neto Marcos Perez (FDUSP), como moderador, Monica Steffen Guise (FGV), que é head de Política Pública de integridade da Meta, representou a organização no debate, e Ricardo Campos (UniFrankfurt).

A normatização da moderação de conteúdo, que é um dos principais desafios da atualidade e tem gerado inúmeros debates entre os diversos setores da sociedade que são impactados pelas redes, foi o foco dos debatedores.

A professora Mendes iniciou sua exposição no seminário relembrando um artigo de sua coautoria, que elenca oito prioridades para a regulação da internet no Brasil [1]. Para a professora, é necessário aproveitar o modelo de autorregulação regulada cuja experiência já é realidade em outros países, unindo os esforços da atuação estatal com as empresas do setor.

No contexto atual brasileiro, ensinou a professora, no campo da moderação de conteúdo, o modelo da autorregulação é a realidade. São as empresas que decidem, a partir dos seus termos de uso, como lidar com o conteúdo ilícito. Entretanto, para garantir a aplicação do Marco Civil da Internet (MCI) e dos princípios da liberdade de expressão, da internet participativa e a proteção de direitos é necessária uma mudança nesta dinâmica pois atualmente prepondera um cenário de desinformação e de violência contra jornalistas, mulheres e do hate seech contra grupos minoritários em geral.

Mendes defendeu a necessidade de uma nova regulação que leve em conta avanços tecnológicos, principalmente a dinâmica da recomendação e do impulsionamento de conteúdos por algoritmos, na medida em que as plataformas deixam de ser apenas intermediários neutros. Apontou a professora que não se trata de uma disputa entre o modelo europeu de regulação e aquele eleito no Brasil com a promulgação do MCI, e sim, como fazer valer os direitos fundamentais e a liberdade de expressão, que não se limita a um direito de "falar", mas também de "buscar informação", exercícios dificultados em um contexto de violência.

A professora explicou que a atual discussão sobre artigo 19 do MCI é relevante, pois, ao estabelecer uma isenção e uma "responsabilidade judicial pontual, posterior" deixa para as plataformas as principais decisões sobre conteúdo. Defende então, que cabe ao legislador definir os parâmetros a partir dos quais as decisões sobre os conteúdos tomadas pelas plataformas devem ser tomadas.

Em sua fala, Mônica pontuou que a regulação das plataformas representa o maior desafio dos últimos tempos da Meta, que tem três bilhões de usuários e um volume de conteúdo gigantesco subindo o tempo todo, e destacou que a governança da internet é um grande desafio, diante da sua complexidade, pluralidade e volume de usuários, atuação global, volume e rapidez de disponibilização de conteúdos nunca vistos.

Mônica concordou com a fala da Laura no sentido de que as decisões de conteúdo são grandes demais para serem tomadas pelas plataformas, e entende que o Congresso pode e deve ditar parâmetros.

Mônica afirmou que todos os dias as empresas de internet tomam decisões extremamente difíceis que influenciam o discurso online, em suas palavras "[…] escolher como uma política vai existir e ser implementada/precisa de ajuste, ampliar, diminuir e etc., são decisões muito importantes porque vão impactar a liberdade de expressão, a forma das pessoas conversarem, se expressarem na internet, impactando a vida de muitas pessoas".

Mônica destacou dois desafios da proposta de moderação de conteúdo. Em primeiro lugar, disse que a moderação é a área mais complexa da empresa, considerando a dificuldade de implementação, uma vez que muitos casos ficam na zona cinzenta, com inúmeras nuances, por isso, a fala no sentido de que a moderação de conteúdo de exploração sexual e de propriedade intelectual possam ser balizadores de um modelo que funcionaria em todas as áreas, incluindo a moderação dos discursos de ódio, não refletiria a realidade.

Segundo Mônica, há uma dificuldade em fazer esse tipo de analogia, porque, a princípio pode parecer simples a solução existente para a moderação de conteúdo da exploração sexual de menores, porém, há décadas bases de dados foram construídas e possibilitam esse controle.

Mônica destacou a existência da organização internacional "National Center of Missing and Exploiting Children" que compila arquivos de mídia de exploração de menores e compartilha com as empresas. São bilhões de arquivos de mídia, fotos, vídeos, já conhecidos, e todos os arquivos têm um "hash" (que é como uma impressão digital do arquivo).

Portanto, as decisões tomadas na moderação desse conteúdo são rápidas, porque esse banco de dados dá a chave para a inteligência artificial. Já o discurso de ódio não tem essa base de dados, é bastante subjetivo, e a depender do contexto pode ser usado para atacar ou confrontar/alertar, por isso, segundo Mônica, "[…] é difícil trabalhar na mesma dimensão, rapidez e aparente simplicidade na área de exploração sexual de menores. Não podemos simplificar soluções e não digo que não devemos combater o discurso de ódio".

ConJur
Ainda sobre o primeiro desafio, Mônica refutou o discurso sobre a irresponsabilidade das plataformas no combate ao discurso de ódio e informou que há um trabalho de bastidores feito, e desde 2017 a "[…] empresa publica relatórios de transparência, que vem aumentando no que tange a sua regularidade […]".  

O segundo desafio destacado por Mônica foi a transmissão para o particular do poder de definir o que é crime, o que muito lhe preocupa, porque "há propostas que pretendem determinar a remoção de conteúdos que não são considerados crimes por lei […] as empresas não querem esse tipo de responsabilidade. Como eu removo post sobre urna eletrônica? Pode ser que alguém esteja deslegitimando a urna  ok, posso deletar. Mas posso ter alguém postando porque está orientando outras pessoas ou está fazendo um debate legítimo sobre o tema que está dentro do discurso democrático no Estado Democrático de direito  o que eu digo para IA? Remova tudo que diga respeito à urna eletrônica? Não é um hash, que está em uma base de dados, que é visivelmente incontestavelmente ilegal e criminosa".

Por fim, Mônica destacou que a Meta possui um conselho de supervisão  oversight board — que é um corpo de especialistas independentes que faz julgamentos vinculantes às decisões que a Meta toma sobre moderação de conteúdo.  

Mendes faz uma réplica a fala da doutora Mônica, explicando que não avançar na discussão e no estabelecimento de parâmetros sobre os conteúdos ilegais seria deixar a critério das empresas as decisões, o que acredita ser a realidade criada a partir da aplicação do artigo 19 do MCI. Defende que regulação precisa lidar com conteúdo, para estabelecer os parâmetros de forma democrática, para que as empresas não definam sozinhas, por exemplo, o que é o discurso de ódio.

O professor Ricardo Campos estruturou a sua exposição a partir de três pontos levantados por Mônica: a) a história da regulação dos intermediários; b) a transmissão para particulares de decisões; e c) a experiência do oversight board, por considerá-los emblemáticos do desafio da regulação, que enfrenta uma crise de paradigmas jurídicos.

Historicamente, o professor esclarece, dois foram os paradigmas jurídicos aplicáveis. O formalismo, marcado pelo direito posto pelo Estado, em normas, a partir dos programas condicionais, que entra em crise, principalmente com a ascensão do Estado social, quando o conhecimento jurídico passa também a ser manejado não só por regras e normas jurídicas, mas também por princípios, valores e interesses. Ambos se mostraram problemáticos para a moderação de conteúdo.

Um terceiro paradigma é atualmente testado, que não está ligado a produção de normatividade jurídica por normas postas, valores ou princípios, mas pela estruturação de um procedimento administrativo-privado que passa a gerar conhecimento sobre a aplicação do próprio direito, com a utilização de ferramentas do direito administrativo informacional.

Campos analisou o subjetivismo do conteúdo, o que fez a partir de uma breve análise do modelo de regulação da internet surgido nos Estados Unidos, que eventualmente migrou para a Europa, a partir da imunidade conferida aos intermediários na Section 230 (1996) e da resposta do setor dos direitos autorais com o DMCA (1998), e marcado pela atividade proativa das plataformas, como no exemplo do notice and takedown. O que ficava efetivamente protegido pela imunidade eram os direitos que não tinham cunho patrimonial, ligados ao subjetivismo, como por exemplo atentados contra a honra ou a dignidade.

No Brasil, a opção legislativa foi não importar a imunidade criada nos moldes do modelo norte-americano, criando-se uma dinâmica própria, onde a resolução de conflitos foi deixada para o Judiciário naquilo que não pudesse ser resolvido de forma privada pelas plataformas. O Professor trouxe exemplos para demonstrar que as demandas no Judiciário são extremamente escassas quando comparadas aos dados de resolução privada e remoção de conteúdo pelas plataformas. Cria-se uma ideia de falso acesso à justiça que não condiz com a estrutura da comunicação na atualidade.

Campos avançou no tratamento do tema da proceduralização. Retornando ao modelo europeu, inaugurado pela legislação alemã, percebeu-se que a estrutura da comunicação estaria próxima de uma infraestrutura, que demanda uma regulação coparticipativa. Esse movimento de internalização procedimental nas plataformas, substituindo uma ideia de falso acesso à justiça é importante, pois nas estruturas mais modernas de autorregulação regulada importa criar, a partir do direito público, parâmetros procedimentais e balizadores gerais, estando a própria plataforma na melhor posição para defender direitos dos usuários, em primeiro momento.

A geração de conhecimento está no centro deste terceiro paradigma da proceduralização, pois são criados parâmetros, a médio e a longo prazo, a partir do processo realizado internamente nas plataformas com a central de queixas disponibilizadas aos usuários e vinculado aos relatórios de transparência. A partir destes dados a autoridade reguladora e o Judiciário podem verificar se as decisões tomadas desviam ou não do padrão da liberdade de expressão brasileiro.

O procedimento em questão poderia nivelar a assimetria de conhecimento entre o público e o privado. Campos defende a possibilidade de que seja o único modelo viável, tendo em vista que os outros paradigmas jurídicos já falharam. É necessário criar mecanismos dinâmicos para a regulação, o que se alcança a partir do modelo da proceduralização.

Finalizou a fala abordando a questão do oversight board, apontando o caminho alemão da regulação regulada, onde é escolhida uma instituição [2], acreditada pelo Ministério da Justiça, que decide nos casos em que a plataforma não consegue definir se o conteúdo é ilegal ou não. Essa instituição é multisetorial e as decisões são publicadas no seu site, abrindo para a sociedade o padrão das decisões que tem sido tomadas em termo de moderação de conteúdo.

Campos reforça que é necessário um paradigma jurídico condizente com a complexidade imposta pela realidade atual, alertando que o trabalho deve ser colaborativo e exigira um tempo para a determinação dos parâmetros da liberdade de expressão na Internet.

O professor Marcos Perez foi o último a debater no painel, destacando que a regulação das plataformas é mais complexa que a própria internet, tendo em vista que quando falamos em regulação, estamos tratando de um fenômeno que é mais, que são as mídias sociais e as grandes empresas que as mantêm.

Marcos afirmou que nas mídias sociais acontece um fenômeno que não ocorre na internet, "[…] nas redes sociais encapsulam as pessoas a partir de traçar seus perfis sociais e em torno de conteúdos mais absorvíveis e que geram maior engajamento e reação dessas pessoas […]", portanto, o que é feito ao meu perfil "[…] agrava a situação, gera um problema de circulação de informação, as pessoas não recebem a informação livremente, chega para você a informação que lhe convém; segundo, isso gera as cascatas cibernéticas  pessoas recebem mesmos conteúdos se juntam àquelas com perfis muito semelhantes  os mecanismos provocam reações em cascatas de mesmas ideias e isso gera polarização, alijamento dos que pensam diferente, então, você só encontra pessoas com a mesma opinião e a forma como as mensagens são trocadas geram encapsulamento e as reações em cadeia geram polarização […]".

Segundo o professor, há estudos da psicologia comportamental que juntam pessoas com a mesma opinião no mesmo círculo de debate e pautam assuntos, o fundamentalista que faz o discurso radical será o líder; já quando se colocam pessoas com opiniões diferentes, o resultado é que elas tendem para a mediação, o centro.

Diante disso, Marcos afirma que é necessário que seja feita uma tutela de conteúdo diferente dos moldes tradicionais do Direito, que seja mais intensa, porque os efeitos são mais graves, e que o Estado não conseguirá dominar esse fenômeno, a regulação estatal/heterônoma não funcionará, por isso a tendência é pensar em uma autorregulação, com a contribuição ativa das plataformas, caso contrário dificilmente esse fenômeno será controlado.

Marcos concluiu que "[…] teremos que delegar em parte essa regulação à indústria que se formou a partir de uma lógica que não é a lógica da regulação, mas do aproveitamento pleno e livre dos dados e do impulsionamento de mensagem e da comunicação via rede social. […]".

O Legal Grounds Institute revisitará nesta coluna os demais tópicos abordados durante o importante seminário Democracia e Plataformas Digitais organizado em conjunto com a Faculdade de Direito da Universidade de São Paulo (FDUSP). Acompanhe mais sobre a nossa atuação nas redes sociais e no canal do YouTube do instituto.


[1] MENDES, Laura. et al. Oito medidas para regular big techs garantindo liberdade de expressão. Folha de São Paulo, São Paulo. 28 fev. 2023. Disponível aqui.

Autores

  • é doutorando em Direito pela Pontifícia Universidade Católica de São Paulo (PUC-SP), pesquisador no Legal Grounds Institute e advogado.

  • é pesquisadora do Instituto Legal Grounds, mestre em Direito do Trabalho pela Pontifícia Universidade Católica de Minas Gerais, bacharel em Direito pela Pontifícia Universidade Católica de Minas Gerais, professora convidada da pós-graduação da Universidade Mackenzie, professora da pós-graduação da Escola Superior da Advocacia da OAB-MG e sócia do Barra, Barros e Roxo Advogados.

Tags:

Encontrou um erro? Avise nossa equipe!