Direito Digital

O Digital Services Act e as novas regras para a moderação de conteúdo

Autor

  • Maria Gabriela Grings

    é mestre e doutora em Direito processual pela Faculdade de Direito da Universidade de São Paulo (USP) bacharel em Direito pela Universidade Federal do Paraná (UFPR) coordenadora do Legal Grounds Institute e advogada.

22 de fevereiro de 2023, 14h50

O Digital Services Act (DSA) inova em diversos aspectos o sistema de regulação das plataformas privadas ao buscar, essencialmente, a criação de um ambiente digital seguro, em que direitos fundamentais dos usuários são respeitados. Para isso, novas posturas são exigidas das plataformas digitais, entre elas a adoção de posturas ativas e observância a procedimentos definidos em lei para moderação de conteúdo online ilegal. As disposições de natureza procedimental destacam-se e serão objeto de breve análise. Na Seção 2, nos artigos 16 a 23, é apresentado e desenvolvido um complexo sistema de mecanismos de notificação e ação, reclamações e instrumentos de resolução de conflitos, a fim de que sejam observados princípios que há muito são esperados [1] no âmbito da moderação privada de conteúdo: transparência, publicidade, contraditório, devido processo, dentre outros.

ConJur
O DSA não se distancia da Diretiva de Comércio Eletrônico (Diretiva 2000/31/CE) e a lógica do notice and take down há muito aplicável em solo europeu. As previsões dos artigos 7º e 16(3) e, principalmente, do artigo 8º demonstram que a responsabilização das plataformas por conteúdos ilícitos ali disponibilizados apenas emerge quando, cientes de sua existência, não adotam medidas para, em prazo razoável e de acordo com suas capacidades técnicas, bloquear ou remover o material. A ciência efetiva sobre a existência de conteúdo ilegal na plataforma advém da notificação, nos termos do artigo 16(3), estando pressuposto o uso adequado, por parte do notificante, dos canais eletrônicos e de fácil acesso que devem ser disponibilizados pela plataforma para o recebimento de notificações e denúncias. O artigo 9(1) não afasta a possibilidade de autoridades nacionais judiciais ou administrativas emitirem ordens de ação contra conteúdos específicos, considerados ilegais na legislação nacional aplicável. Nesse caso, a conduta exigida não será de monitoramento geral e contínuo sobre todos os materiais divulgados ou compartilhados (obrigação inclusive proibida pelo DSA em seu artigo 8º), mas sim de atuação específica.

As condições elencadas no artigo 16(2) em muito se assemelham às exigências usualmente presentes nos diplomas processuais para a apresentação de demandas e pedidos em juízo em face de terceiros, os conhecidos requisitos da petição inicial. Sob a justificativa de "facilitar a apresentação de notificações suficientemente precisas e adequadamente fundamentadas", devem estar presentes os seguintes elementos: 1) explicação fundamentada das razões que levam ao entendimento de que o conteúdo em questão é ilegal; 2) indicação clara da localização eletrônica, com URL, e se possível, informações adicionais que facilitem a localização do conteúdo; 3) nome e endereço eletrônico do notificante e 4) declaração de boa-fé de que as informações são exatas e completas. De acordo com o artigo 16(3), essa notificação implica em conhecimento efetivo, pela plataforma, sobre a informação supostamente ilegal. Nesse sentido, tendo em vista o exercício privado da jurisdição [2], o paralelo com o sistema adjudicatório estatal é inevitável e enseja questionamentos sobre a inexistência de previsão de abertura de prazo para eventual correções e complementos da notificação, após recebimento pela plataforma.

O DSA indica que a tomada de decisão deverá ocorrer "sem demora injustificada" (artigo 16(5) e "de forma atenta, diligente, não arbitrária e objetiva" (artigo 16(6)), ainda que não sejam detalhados prazos específicos para que isso ocorra. O artigo 16(6), ainda, em respeito ao princípio da transparência e atento a uma prática comum adotada pelas empresas [3], prevê que, caso sejam utilizados meios automatizados nesse processo, tal informação deve constar na confirmação de recebimento a ser enviada ao usuário que apresentou a notificação — desde que nesta conste seus dados de contato eletrônico (artigo 16(4)). Recebida a notificação, a plataforma tem duas opções: (1) entender, em concordância, pela ilegalidade do conteúdo ou, ao contrário, (2) entender pela legalidade do conteúdo, em discordância com a notificação apresentada. No primeiro caso, em que a plataforma de algum modo restringe o conteúdo com fundamento na ilegalidade, a decisão deve contar com uma clara e específica exposição de motivos e deve ser apresentada a todos os destinatários do serviço por ela afetados. É como prevê o artigo 17 que, no entanto, parece não exigir o mesmo dever de motivação no primeiro caso, isto é, quando o conteúdo é mantido, o que demonstra um contrassenso no contexto de uma legislação que pretende fomentar a garantia de direitos fundamentais, inclusive na seara procedimental.

Dentre os requisitos mínimos para que a decisão possa ser considerada motivada, estão: informações sobre tipo de restrição adotada, seu âmbito territorial e duração; os fatos e circunstâncias que ensejaram a decisão, incluindo se foi fruto de notificação nos moldes do artigo 16 ou investigação voluntária nos moldes do artigo 7º; se aplicável, informações sobre a adoção de meios automatizados na tomada de decisão; o fundamento jurídico sobre o qual a ilegalidade se baseia ou, se for o caso, a cláusula dos Termos de Uso em relação à qual o conteúdo é incompatível; e informações sobre a possibilidade de revisão interna da decisão e do uso de meios extrajudiciais de resolução de litígios. O dever de uso de linguagem clara, acessível e compreensível do artigo 17(3) (f) decorre da própria lógica do sistema de notificação instituído pelo DSA, em que qualquer usuário poderá valer-se do mecanismo para denúncia de materiais tidos como ilegais ou indevidos, e não apenas advogados ou pessoas com conhecimento jurídico.

O artigo 18 prevê que sempre que tiverem conhecimento sobre a ocorrência ou a possibilidade de ocorrência de crimes envolvendo ameaça à vida ou à segurança de uma ou mais pessoas, as plataformas deverão comunicar imediatamente às autoridades policiais ou judiciárias do Estado-membro com jurisdição territorial ou, em caso de impossibilidade de identificação, deverão informar as autoridades do Estado-membro responsáveis pela aplicação da lei no local em que está estabelecido ou possui representante legal. Não pairam dúvidas de que se o intuito do DSA é impedir a divulgação e o compartilhamento de conteúdos ilegais (em sentido amplo) nas plataformas, a detecção de material criminoso com potencial concreto de lesionar uma pessoa deve ser comunicado à autoridade competente, para adoção imediata das medidas cabíveis.

O "sistema interno de gestão de reclamações" é um dos pontos de maior novidade no DSA. O artigo 20 estabelece a obrigação de as plataformas disponibilizarem aos envolvidos um sistema completamente online e de fácil acesso, que funcione como uma espécie de duplo grau recursal. Durante um período mínimo de seis meses, os usuários podem questionar quaisquer decisões tomadas pela empresa após a recepção de uma notificação ou após o exercício voluntário da moderação de conteúdo que 1) remova, bloqueie ou restrinja a visibilidade de determinado conteúdo, 2) suspenda a prestação do serviço aos usuários, 3) suspenda ou encerre contas, ou (4) cesse ou restrinja a capacidade de monetizar informações fornecidas pelos usuários. É interessante notar que o sistema deve alcançar também as decisões que entendam pela legalidade ou compatibilidade do conteúdo e, portanto, que o mantenham na plataforma. Essa previsão é uma novidade em relação a versões anteriores do Digital Services Act, que apontava para um desequilíbrio de tratamento, um design assimétrico, na medida em que não incluía o autor da notificação no sistema interno de gestão de reclamações, restando a ele apenas o apelo perante autoridades judiciais competentes [4].

Não há detalhamento sobre prazos a serem observados pelas plataformas para a análise da reclamação. O DSA indica apenas que deve se dar de forma "atenta, não discriminatória, diligente e não arbitrária" e, havendo fundamentos suficientes, deve revogar a decisão inicial "sem demora injustificada" (artigo 20(4)). Não há também indicações acerca da possibilidade de manifestação da outra parte ou, ainda, informações acerca de quem especificamente será o responsável por emitir a nova decisão. Apesar de determinar que as plataformas devam garantir que tal análise não seja feita apenas por meios automatizados, mas por "colaboradores devidamente qualificados", não são especificadas quais seriam as qualificações técnicas mínimas exigidas (como experiência e/ou conhecimento prévio sobre sistemas de resolução de conflitos ou experiência e/ou conhecimento jurídico ou técnico sobre moderação de conteúdo) ou o grau de imparcialidade desse novo agente, pois não há informação de que a nova decisão deverá ser proferida por pessoa diversa daquela que emanou o comando recorrido, por mais elementar que tal constatação se apresente.

Na hipótese de confirmação da primeira decisão duas são as opções restantes aos usuários: recorrer ao Poder Judiciário ou a mecanismos extrajudiciais de resolução de conflitos, cujos contornos estão previstos no artigo 21 do Digital Services Act. Os usuários poderão selecionar qualquer organismo que seja certificado pelo coordenador de serviços digitais do Estado-membro em que se localiza. Tal certificação ocorre mediante pedido, por um período máximo de cinco anos e deve levar em consideração os critérios do artigo 21(3), que incluem, principalmente, imparcialidade e independência. Deixando de cumprir algum desses critérios, a certificação poderá ser revogada. Os organismos certificados estarão sujeitos à elaboração de relatórios anuais com dados relativos aos litígios recebidos, que devem ser decididos em um prazo de até 90 dias ou de 180 dias no caso de litígios "altamente complexos" (artigo 21(4)).

Havendo julgamento favorável ao usuário, a plataforma deverá reembolsá-lo de taxas ou outras despesas razoáveis que tenha incorrido no uso do mecanismo. Considerando a assimetria econômica entre plataformas e usuários (uma vez que micro e pequenas empresas não precisam contar com sistema interno de gestão ou se submeter à resolução extrajudicial, conforme artigo 19), o usuário não precisará realizar qualquer reembolso em caso de insucesso, o que é plenamente justificável.

A possibilidade de atribuição de uma qualificação especial aos envolvidos no processo de notificação é outro ponto de destaque do DSA. O artigo 22 dispõe a respeito dos sinalizadores de confiança, que terão suas notificações processadas e decididas com prioridade, independentemente do objeto. A Coordenação de Serviços Digitais será responsável por conceder esse status aos requerentes que: (1) sejam independentes de qualquer plataforma; (2) demonstrarem expertise e competência na detecção, identificação e notificação de conteúdo ilegal; e (3) realizarem suas atividades objetivando notificações diligentes, precisas e objetivas. A indicação atuará como uma espécie de selo de reconhecimento e carregará consigo obrigações como a de publicação de relatórios anuais sobre as notificações apresentadas (artigo 22(3)). Caso as plataformas indiquem haver muitas notificações imprecisas ou inadequadamente fundamentadas por parte de determinado sinalizador, o respectivo coordenador será comunicado e poderá determinar a abertura de uma investigação que, por sua vez, poderá resultar na revogação do status concedido. Não há informação sobre a possibilidade de restabelecimento.

Em sentido oposto é a previsão do artigo 23, que possibilita às plataformas, após aviso prévio, suspender os serviços prestados, por tempo razoável, para usuários que frequentemente disponibilizam conteúdo manifestamente ilegal ou que apresentam notificações e recursos manifestamente infundados, em espécie de punição por atos de litigância de má-fé. Novamente não há informação sobre o que pode ser considerado como tempo razoável. No caso de suspensões de serviços por disponibilização de material ilegal, inexiste indicação se fatores afetos ao usuário, como o fato de se tratar de perfil comercial ou com grande número de seguidores, são considerados nesse processo de quantificação temporal de suspensão. Considerando a quantidade de empresas e de pessoas físicas que utilizam as plataformas para divulgação de produtos e serviços, a importância da questão se avulta. Os atos de suspensão apenas poderão ocorrer após análise do caso concreto que tenha como base todos os fatos e circunstâncias relevantes, incluindo a quantidade de conteúdos ilegais ou de notificações infundadas; a sua proporção em relação ao total de itens, tendo como parâmetro o ano anterior; a gravidade das condutas e suas consequências e a intenção do usuário.

Apenas com a entrada em vigor do DSA será possível verificar como essas previsões serão vivenciadas por usuários e plataformas, em suas operações rotineiras de moderação de conteúdo. Não restam dúvidas, contudo, a respeito das profundas alterações trazidas pelo DSA para o cenário da regulação de conteúdo na esfera digital.


[1] GOANTA, Catalina; ORTOLANI, Pietro. Unpacking content moderation: the rise of social media plataforms as online civil courts, 2021, disponível em https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3969360. MOSTERT, Frederick. Your day in Court: social media needs a system of due process, 2021, disponível em https://www.ft.com/content/48c49453-9a8f-4125-85d7-94220497d13c.

[2] O termo possui diversas acepções. Em sua vertente clássica é poder, função e atividade realizadas pelo Poder Judiciário e pelas soluções arbitrais, como caracterizada por Cintra, Grinover e Dinamarco (CINTRA, Antônio Carlos de Araújo; GRINOVER, Ada Pellegrini; DINAMARCO, Cândido Rangel. Teoria Geral do Processo, 30ª ed, São Paulo: Malheiros Editores, 2014, p. 149). Para Flávio L. Yarshell é "(a) atividade pela qual (b) um terceiro se substitui aos sujeitos de uma dada controvérsia, (c) de forma imperativa, com o (d) escopo de eliminá-la (a controvérsia) mediante a atuação do direito objetivo" (YARSHELL, Flávio Luiz. Curso de direito processual civil – São Paulo: Marcial Pons, 2014, p. 146). Em tempos mais recentes o conceito foi alargado para abarcar atuações que solucionam conflitos, mas nem a presença estatal e nem a heterocomposição são elementos essenciais para a sua definição, abrangendo os meios alternativos (ou adequados para alguns) de resolução de conflitos e as soluções envolvendo tecnologia, ODRs (online dispute resolutions), como indica Ada Pelligrini Grinover: "(…) acesso à justiça para a solução de conflitos, utilizando seus instrumentos – processo e procedimento – na busca da tutela jurisdicional justa e adequada e da pacificação social" (GRINOVER, Ada Pellegrini. Ensaio sobre a processualidade: fundamentos para uma nova teoria geral do processo. Brasília: Gazeta Jurídica, 2018, p. 07).

[3] GRIMMELMANN, James, The Virtues of Moderation, Yale Journal of Law & Technology, v. 42, 2015, p. 63.

[4] EIFERT, Martin et. al. Taming the giants: the DMA/DSA package, Common Market Law Review v. 58, 2021, p. 1010.

Autores

  • é mestre e doutora em Direito Processual pela Faculdade de Direito da Universidade de São Paulo (USP), bacharel em Direito pela Universidade Federal do Paraná (UFPR), pesquisadora do Legal Grounds Institute, membro do Grupo de Estudos em Novas Regulações de Serviços Digitais no Direito Comparado do Legal Grounds Institute e advogada.

Tags:

Encontrou um erro? Avise nossa equipe!