Opinião

TSE, plataformas digitais e competência normativa: Resolução n˚ 23.732/2024

Autores

  • Yasmin Curzi

    é professora de Direitos Humanos na graduação da Fundação Getúlio Vargas (FGV-Rio) mestre em sociologia pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e doutoranda pelo Programa de Pós-graduação em Sociologia do Instituto de Estudos Sociais e Políticos da Universidade do Estado do Rio de Janeiro (Iesp-Uerj) coordenadora do Programa de Diversidade & Inclusão da Fundação Getulio Vargas (PD&I) e pesquisadora associada ao Centro de Tecnologia e Sociedade (CTS-FGV).

  • Hana Mesquita

    é mestranda em Políticas Públicas em Direitos Humanos pelo NEPP-DH/UFRJ e pesquisadora do Programa de Diversidade & Inclusão e do Projeto Mídia e Democracia da FGV Direito Rio.

  • Isabella Marins

    é advogada criminalista mestranda em Antropologia pelo PPGA/UFF bacharel em Direito e Ciências Sociais pela FGV Rio e Pesquisadora do Projeto Mídia e Democracia da FGV Direito Rio.

  • José Luiz Nunes

    é professor da FGV Direito Rio pesquisador de seu Centro de Tecnologia e Sociedade (CTS-FGV) e doutorando em Informática pelo PUC Rio.

  • Lorena Abbas

    é doutoranda pelo PPED/UFRJ e pesquisadora do projeto Mídia e Democracia na FGV Direito Rio.

27 de março de 2024, 19h19

O combate à desinformação e ao uso abusivo de inteligência artificial (IA) é um dos maiores desafios para as eleições de acordo com especialistas nacionais e internacionais.

No cenário brasileiro, devido à proximidade das eleições municipais de 2024 e à pendência de votação do PL 2.630/2020 e de outros projetos sobre IA no Congresso, o Tribunal Superior Eleitoral (TSE) tem sido o ator de destaque para a regulação da temática desde 2019 — uma tentativa de suprir as lacunas normativas para lidar com a questão.

Para o pleito de 2024, o TSE aprovou 12 resoluções, dentre elas a Resolução nº 23.732, de 27 de fevereiro de 2024, que dispõe sobre propaganda eleitoral em plataformas digitais, alterando a Resolução nº 23.610, de 18 de dezembro de 2019.

A nova resolução atualiza os dispositivos da resolução de 2019, disciplinando temas como impulsionamento pago de conteúdo político-eleitoral, utilização de conteúdo sintético gerado por IA e remoção de “fatos notoriamente inverídicos ou descontextualizados”.

A Resolução nº 23.732/24 tem a pretensão de tornar mais eficiente e ágil o processo de remoção de conteúdo potencialmente danoso para o pleito eleitoral e ao Estado democrático de Direito.

Também cria um novo conjunto de obrigações para provedores de aplicações, que devem agir proativamente no combate à desinformação que atinja o processo eleitoral, discurso de ódio e conteúdos que configurem crime contra o Estado democrático de Direito, segundo o Código Penal, além de estabelecer condições e casos de vedação para a utilização de conteúdo gerado por IA.

A competência do TSE para definir regras sobre propaganda eleitoral e combate à desinformação no contexto das eleições foi reiterada pelo Supremo Tribunal Federal (STF), no julgamento da ADI 7.261 em dezembro de 2023. Neste julgamento, a constitucionalidade da Resolução nº 23.714/2022 foi questionada pela Procuradoria Geral da República (PGR) por violar “diversas regras constitucionais” como a “competência legislativa sobre direito eleitoral, e a liberdade de expressão, independentemente de censura prévia”.

O entendimento estabelecido pelo STF foi o de que o TSE, ao exercer a sua atribuição de elaboração normativa e o poder de polícia em relação à propaganda eleitoral, não usurpa a competência legislativa da União, uma vez que vem tratando do combate à desinformação por meio de precedentes jurisprudenciais e atos normativos ao longo dos últimos anos.

A atualização das regras é indispensável para a integridade do processo eleitoral — devido à popularização de ferramentas de IA, além da necessidade de ações mais efetivas contra a desinformação, discurso de ódio e conteúdos que podem impactar o sistema democrático.

No entanto, a Resolução nº 23.732/2024 tem sido alvo de críticas, especificamente, por alegadamente violar o regime geral de responsabilidade do Marco Civil da Internet (Lei nº 12.965/2014, ou MCI) para provedores de aplicações, estabelecido em seu artigo 19, caput.

Críticos à resolução argumentam que, enquanto o MCI estabelece um regime de responsabilidade subsidiária por omissão para as plataformas digitais, ou seja, elas somente podem ser responsabilizadas após o descumprimento de ordem judicial específica que requisita a remoção de um dado conteúdo, o artigo 9º-E da nova Resolução do TSE traria um novo regime: o de responsabilidade solidária dos provedores de aplicação quando não promoverem a indisponibilização imediata de determinados conteúdos e contas, em hipóteses estabelecidas em seus incisos subsequentes, durante o período eleitoral.

O artigo 19 do MCI, que este ano completa dez anos, é objeto de discussão no Tema 987, ainda pendente de julgamento pelo STF. A sua construção legislativa buscou resolver posições jurisprudenciais conflitantes em relação à responsabilidade de plataformas por conteúdos de terceiros.

Em resumo, a discussão jurisprudencial englobava três posições distintas acerca do tema: “em favor da exceção de responsabilidade de provedores de aplicação e serviços; em favor de um regime de responsabilidade objetiva de provedores de aplicação e serviços; em favor de responsabilidade subjetiva de provedores de aplicação e serviços”.[1]

Liberdade de expressão

Alguns dos argumentos centrais no questionamento da constitucionalidade do regime geral do artigo 19 no STF seria a possibilidade de que o dispositivo privilegie a liberdade de expressão em detrimento de outros direitos fundamentais, com potenciais restrições a direitos de personalidade, ou ainda, promova um modelo de governança de plataformas no qual  não há incentivo para o aprimoramento de seus mecanismos de moderação de conteúdo — tendo em vista que a única responsabilização para estes atores advenha da decisão judicial sobre casos individuais. Não é nosso objetivo adentrar na discussão sobre a constitucionalidade do artigo 19.

Apontamos apenas que o TSE tem utilizado suas competências jurisdicional, normativa e administrativa, atribuídas pelo Código Eleitoral, para atuar diante do vácuo regulatório para o processo eleitoral, em especial com relações ao uso ferramentas de IA para gerar conteúdo. De tal modo, a principal discussão na Resolução de 2024 reside no questionamento da competência do TSE para estabelecer um regime de responsabilidade que possa, em tese, divergir do regime estabelecido pelo MCI.

Freepik

No Brasil, o período eleitoral tem se revelado cada vez mais excepcional e sensível. Nos últimos anos, observamos diversas manifestações de cunho antidemocrático, o aumento da circulação de discursos que descredibilizam o sistema eletrônico de votação e o marcante episódio da invasão ao Congresso no dia 8 de janeiro de 2023. A este cenário, soma-se a intensificação de discursos de ódio engatilhados pelas eleições.

Conforme apontam os dados da SaferNet Brasil, só em 2022, mais de 74 mil denúncias de discurso de ódio pela internet foram encaminhadas para a Central Nacional de Denúncias de Crimes Cibernéticos [2]. Não há como negar o impacto das articulações e discursos antidemocráticos mobilizados online, que reverberam e influenciam de forma considerável em nossa política e democracia. Reconhecemos também que há um fator crítico temporal na ação para remover tais conteúdos, e poucos dias podem causar danos irreversíveis ao processo eleitoral.

A regra criada pelo artigo 9°-E da Resolução nº 23.732/2024 traz o regime de responsabilidade solidária especificamente para o período eleitoral e hipóteses de conteúdos ilegais que não sejam removidos imediatamente. Em última análise, ela tenta trazer balizas para aplicação de um regime de responsabilidade diferenciado e mais alinhado à nova dinâmica entre usuários e plataformas e os potenciais impactos negativos para a lisura das eleições.

A opção do TSE, contudo, impõe desafios de ordem prática, dada a vagueza da referida norma e potenciais conflitos com a lei federal. Identificamos uma problemática derivada da redação do artigo 9˚-E: há três hipóteses possíveis a partir da sua leitura, no que diz respeito à aferição da responsabilidade solidária de provedores de aplicações pela falha da “indisponibilização imediata de conteúdos e contas”:

  1. É possível inferir que o dispositivo obriga as plataformas a exercerem um monitoramento prévio para a “indisponibilização imediata”;
  2. A resolução estabelece um regime de notice and takedown, devendo a plataforma remover o conteúdo uma vez notificada também por usuários ou entidades da sociedade civil. Essa interpretação poderia vir da leitura conjunta com o artigo 9-D, e seu inciso II e § 2º, da mesma resolução;
  3. Por último, é possível que a “indisponibilização imediata” seja lida de forma a se coadunar com o MCI e ocorrer somente após ordem judicial.

A primeira hipótese traz a possibilidade de aumento do uso de ferramentas de detecção automatizada de discursos potencialmente nocivos e que se encaixem nos dispositivos afirmados pela Resolução. Assim, qualquer conteúdo que habite uma “zona de penumbra”, mesmo sendo lícito, seria removido. De tal modo, a regulação privada do discurso seria profundamente exacerbada.

Em relação à segunda hipótese, a plataforma deveria criar mecanismos para receber notificações por qualquer pessoa, e prosseguir com a remoção de conteúdo imediatamente após a ciência. Ainda que com menor intervenção direta que a primeira, esse sistema é altamente restritivo à liberdade de expressão, conforme o que é observado em seu uso na experiência americana com direitos autorais.

Ainda, é possível dizer que o dispositivo violaria a separação de poderes nessas duas leituras. A competência para legislar sobre responsabilidade civil é do legislativo federal, que já se manifestou ao estabelecer o regime do MCI, e a atuação do TSE estaria usurpando a competência da União nesses casos.

Por seu turno, a terceira hipótese, não mudaria o regime geral do MCI, que já pontua a responsabilidade de provedores de aplicação pelo descumprimento de ordem judicial. No entanto, é de se esperar que o TSE atue ativamente em conjunto com as plataformas para identificar e notificar conteúdos que violem suas normas, como ocorreu nas eleições de 2022. Essa estrutura vai ao encontro da inércia tipicamente esperada do poder judiciário, que deve agir apenas quando acionado por uma demanda em procedimento judicial.

Enfrentando a desinformação

Nessa toada, o presidente do TSE, ministro Alexandre de Moraes, inaugurou, no dia 12 de março, o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (Ciedde) que contará com uma rede de comunicação em tempo real com 27 tribunais regionais eleitorais (TREs). Em sua fala, enfatizou que a Justiça Eleitoral não irá admitir discurso de ódio,  deepfake e notícias fraudulentas e, portanto, a troca de informações entre os parceiros é fundamental.

A despeito da interpretação que advirá da aplicação normativa pelo TSE, há questões relacionadas à moderação de conteúdo que não podem ser desconsideradas no debate. A fiscalização adequada de conteúdos considerados falsos, discursos de ódio e imagens modificadas por IA depende intrinsecamente da melhoria dos sistemas de moderação de conteúdo.

Por sua vez, tal melhoria depende da contratação, por parte das companhias detentoras das plataformas, de moderadores especializados. Nos últimos quatro anos, corporações demitiram 280 mil profissionais [3]. As demissões em massa das big techs e a ausência de equipes especializadas estão relacionadas com os riscos de uma moderação excessiva e arbitrária.

Outro ponto problemático envolve o emprego de conceitos vagos e que dão margem a interpretações ambíguas, como “fatos gravemente descontextualizados”, no inciso II do artigo 9º-E. Outro exemplo crítico é a ausência de delimitação do conceito de discurso de ódio, mencionado no inciso V.

Segundo o dispositivo, configuraria caso de risco “comportamento ou discurso de ódio, inclusive promoção de racismo, homofobia, ideologias nazistas, fascistas ou odiosas contra uma pessoa ou grupo por preconceito de origem, raça, sexo, cor, idade, religião e quaisquer outras formas de discriminação”.

A vagueza deste inciso pode ensejar uma atuação arbitrária das plataformas, que sujeitas ao regime de responsabilidade solidária, irão decidir unilateralmente o conteúdo do que seria “discurso de ódio”.

Em síntese, a Resolução nº 23.732/24 dá passos necessários para o combate à desinformação e ao uso abusivo de IA em campanhas eleitorais. Entretanto, sem regulação que balize adequadamente o tratamento do tema da moderação de conteúdo no Brasil, as disposições que poderiam promover a melhoria do debate público online correm o sério risco de justificar uma maior arbitrariedade de atores privados na remoção de conteúdos de expressão legítima.

É preocupante que plataformas, sem moderação apropriada, sejam forçadas a aumentar esta ingerência pelo receio de penalização. A efetiva regulação do tema é profundamente urgente e necessária para produzir a melhoria da moderação de conteúdo no ambiente online que, por sua vez, é essencial para o combate a discursos nocivos ao mesmo tempo em que se protege a liberdade de expressão.

 

 


[1] DIAS, Daniel Pires Novais; BELLI, Luca; ZINGALES, Nicolo; GASPAR, Walter; CURZI, Yasmin. Plataformas no Marco Civil da Internet: a necessidade de uma responsabilidade progressiva baseada em riscos. civilistica.com, [S. l.], v. 12, n. 3, p. 1–24, 2023. Disponível em: https://civilistica.emnuvens.com.br/redc/article/view/931. Acesso em: 11 mar. 2024.

[2] Denúncias de crimes com discurso de ódio na internet crescem em 2022. Disponível em: https://agenciabrasil.ebc.com.br/direitos-humanos/noticia/2023-02/denuncias-de-crimes-na-internet-com-discurso-de-odio-crescem-em-2022. Acessado em 05 de março de 2024.

[3] Big Techs: o humano perde mais espaço. Disponível em: https://outraspalavras.net/tecnologiaemdisputa/big-techs-o-humano-perde-mais-espaco. Acessado em 06 de março de 2024.

Autores

  • é professora de Direitos Humanos na FGV Direito Rio e coordenadora do Programa de Diversidade e Inclusão e pesquisadora do Centro de Tecnologia e Sociedade, ambos da FGV Direito Rio.

  • é mestranda em Políticas Públicas em Direitos Humanos pelo NEPP-DH/UFRJ e pesquisadora do Programa de Diversidade & Inclusão e do Projeto Mídia e Democracia da FGV Direito Rio.

  • é advogada criminalista, mestranda em Antropologia pelo PPGA/UFF, bacharel em Direito e Ciências Sociais pela FGV Rio e Pesquisadora do Projeto Mídia e Democracia da FGV Direito Rio.

  • é professor da FGV Direito Rio, pesquisador de seu Centro de Tecnologia e Sociedade (CTS-FGV) e doutorando em Informática pelo PUC Rio.

  • é doutoranda pelo PPED/UFRJ e pesquisadora do projeto Mídia e Democracia na FGV Direito Rio.

Encontrou um erro? Avise nossa equipe!