Consultor Jurídico

Direito Digital

Como regular a moderação privada de conteúdo nos novos espaços públicos?

Por  e 

A moderação de conteúdo, entendida como o conjunto de mecanismos de governança que estruturam a participação em uma plataforma para facilitar cooperação e prevenir abusos [1] vem sendo largamente empregado pelos provedores de redes sociais e de aplicações que permitam compartilhamento de conteúdo na internet, bem como nos resultados de buscas [2].

Apenas no primeiro quarto de 2020, o Facebook removeu ou aplicou medidas sobre cerca de 1,8 bilhão de contas inautênticas e conteúdos envolvendo nudez e atividade sexual, violência, organizações perigosas (terrorismo e ódio), hate speech, drogas e armas de fogo, pornografia infantil, suicídio e auto-mutilação. O último relatório de transparência do Twitter revela suspensão de 244.188 contas por exploração de menores (91% usando tecnologia) e 115.861 contas por conteúdo violento (87% com uso de ferramentas computacionais proprietárias) [3]. Segundo o relatório do primeiro trimestre de 2020 [4]moderadores do YouTube removeram manualmente 399.422 vídeos, ao passo que 5.711.586 vídeos foram removidos por ferramentas automatizadas [5]. O relatório de transparência do Google, por sua vez, indica que mais de quatro bilhões de URLs tiveram sua deslistagem requisitada por usuários.

Pela posição central das plataformas digitais na construção do espaço de debate público atual, a tendência, na Europa [6] e nos Estados Unidos da América [7], consiste em ver a moderação como central não só para a promoção da qualidade dos serviços disponibilizados, que traduz o interesse privado dos provedores, mas também para a garantia de liberdade de expressão do indivíduo, de direitos fundamentais e do ambiente democrático, razão pela qual, há uma necessidade de convergência dos termos de uso com a ordem jurídica estatal, em democracias constitucionais contemporâneas. Por outro lado, cada vez mais se reconhece que essa curadoria de conteúdo implica responsabilidade das plataformas pela adoção dos procedimentos adequados de governança e meios técnicos disponíveis para evitar abusos e mitigar impactos provocados por conteúdo nocivo propagado. Ou seja, aponta-se para deveres inerentes à moderação de conteúdo pelas plataformas terem se tornado, de fato, as anfitriãs do espaço para o discurso público e "curadoras" da liberdade de expressão, de modo que suas regras não podem ficar restritas à relação contratual com os usuários, devendo incorporar a legislação nacional, sendo compatíveis com as regras sobre licitude de conteúdo difundido na esfera pública [8]. Isso inclui não só os ilícitos criminais [9], como também as regras nacionais sobre publicidade [10] nos veículos de comunicação, nas práticas de propaganda online e impulsionamento de conteúdo.

Tendo em vista o interesse público do qual se cerca, os sistemas privados de governança montados pelos provedores para a moderação de conteúdo na internet tem sido centro de debates internacionais, que apontam preocupação quanto à falta de transparência e arbítrio pelos provedores [11]. Nesse sentido, entidades da sociedade civil tem promovido iniciativas e promulgado documentos no sentido de estimular a adoção de mecanismos de transparência, entre eles o Santa Clara Principles [12], o Corporate Accountability Index [13] e os princípios sobre filtragem de conteúdo da Eletronic Frontier Foundation [14].

Esses documentos elencam a necessidade dos provedores de aplicação divulgarem os números de medidas aplicadas (flagging, blocking, takedown) e de notificarem o usuário afetado pela medida, oferecendo as razões correspondentes, bem como a oportunidade para sua contestação. Iniciativas legislativas também incorporaram alguns deveres procedimentais da transparência, como a lei alemã de redes NetzDG [15] e a proposta de regulação europeia sobre prevenção de disseminação online de conteúdo terrorista [16] e a Recomendação sobre a Responsabilidade de Intermediários na Internet do Conselho Europeu [17].

Embora as plataformas tenham passado a divulgar números de atividade de moderação, induzidas por pressões governamentais [18], foram tímidas em relação à disponibilização de mecanismos efetivos de contestação, permanecendo arbitrárias as decisões pelos provedores quanto à exclusão de conteúdos e contas [19].

Por outro lado, o debate acadêmico e de ativistas digitais [20] tem apontado a insuficiência dessas medidas. Note-se que todas elas se referem a boas práticas após a tomada de decisão pelo provedor de aplicação acerca de medida sobre conteúdos ou contas. Mas uma série de preocupações têm sido levantadas sobre a adequação e impactos a direitos fundamentais decorrentes do próprio processo decisório adotado pelas plataformas. Esse processo de tomada de decisão envolve, basicamente, equipes de moderadores e ferramentas computacionais para a detecção ou decisão automatizada sobre o conteúdo.

Quanto aos moderadores, há três ordens de questionamento. A primeira diz respeito à adequação dos padrões de moderação, tipicamente modulados para democracias constitucionais, assumindo-se, por exemplo, que a desinformação e o ódio são criados e tolerados apenas por uma minoria, quando na verdade podem ter o suporte da maioria da população e ter inclusive origem governamental [21]. A segunda concerne à necessidade de competência dos moderadores para lidar com questões locais, incluindo o conhecimento da língua e aspectos culturais e políticos relevantes, considerando que, por vezes, a moderação não é nacional e até mesmo pode ser executada de modo terceirizado para empresas estrangeiras [22]. Recentemente, o Facebook fez esforço louvável em constituir e divulgar seu Oversight Board [23] para moderação de conteúdo, enfatizando a equipe escolhida, formada por membros conhecidos por sua defesa da liberdade de expressão e direitos humanos. Porém, o Oversight Board decide pequeno número casos selecionados, com o objetivo de oferecer diretrizes para as equipes de moderadores, que efetivamente tomarão decisões sobre moderação de conteúdo na rede social. Pouco se sabe sobre a composição, treinamento e capacidades das equipes de moderadores, em qualquer das redes sociais hoje dominantes. O episódio de Mianmar [24], em que o Facebook foi incapaz de detectar como a rede social foi utilizada como arma para incitar violência contra a minoria étnica Rohingya, ilustra bem essas duas ordens de preocupação. A terceira preocupação concerne às condições de trabalho do moderador, que é exposto constantemente a imagens e conteúdo degradantes, o que pode afetar sua saúde psíquica [25].




Topo da página

Juliano Maranhão é diretor do instituto LGPD, professor Livre-Docente da Faculdade de Direito da USP, membro do Comitê Diretor da International Association of Artificial Intelligence and Law e pesquisador da Fundação Alexander von Humboldt.

Ricardo Campos é diretor do instituto LGPD (Legal Grounds for Privacy Design) e docente assistente na Goethe Universität Frankfurt am Main (ALE).

Matthias Kettemann é consultor do parlamento alemã sobre regulação de redes, doutor e livre-docente pela Goethe Universität Frankfurt am Main.

Juliana Abrusio é diretora do instituto LGPD, doutora em Direito e professora da Universidade Presbiteriana Mackenzie. Sócia da Opice Blum, Bruno, Abrusio e Vainzof Advogados Associados.

Giovanni Sartor é professor catedrático do Instituto Europeu de Florença (Itália) e da Universidade de Bolonha (Itália) e consultor do parlamento europeu sobre direito digital.

Revista Consultor Jurídico, 1 de setembro de 2020, 13h05

Comentários de leitores

0 comentários

Comentários encerrados em 09/09/2020.
A seção de comentários de cada texto é encerrada 7 dias após a data da sua publicação.