Observatório constitucional

Liberdade de Expressão, Redes Sociais e a Democracia

Autores

  • Rodrigo Luís Kanayama

    é doutor em Direito do Estado pela UFPR professor do Departamento de Direito Público da UFPR e advogado em Curitiba.

  • Ilton Norberto Robl Filho

    é professor da Faculdade de Direito da UFPR e do IDP líder do grupo de pesquisa "Democracia Constitucional Novos Autoritarismos e Constitucionalismo Digital" no IDP membro do CCons-UFPR e da Fundação Peter Häberle e sócio do escritório de advocacia Marrafon Robl e Grandinetti.

10 de julho de 2021, 8h01

Introdução
Ninguém pode duvidar da relevância da internet para a construção de uma sociedade melhor. De outro lado, surgem relevantes preocupações com a privacidade [1] e com o impacto sobre as preferências das pessoas.

Além disso, as redes sociais atualmente são acusadas de manipulação de eleições, violência contra os jovens (cyberbullying), vazamento de informações privadas, entre outras denúncias. Notícias falsas correm por computadores e smartphones na velocidade de um pressionar de um botão, às vezes propositalmente, às vezes ingenuamente, corroendo a democracia constitucional.

As notícias falsas deterioram a qualidade da democracia, porque produzem um cenário falso que interfere ilegitimamente no processo de escolha dos eleitores. Dessa forma, este texto analisa o tema e apresenta sugestões simples baseadas em análises comportamentais para coibir o compartilhamento de notícias falsas.

Eleições e Redes Sociais no Brasil
Nas eleições brasileiras de 2018 e de 2020, o fenômeno das notícias falsas, apesar de combatida por relevantes campanhas da Justiça Eleitoral, de mecanismos de comunicação social e de entidades da sociedade civil, encontrou-se presente. Duas características se destacaram: primeiro, o uso massivo da Internet e das redes sociais para substituir as formas tradicionais de propaganda eleitoral; segundo, os polos extremos que se formaram, tornando-se os grupos em entidades absolutamente fechadas.

Nos últimos anos, as posições políticas extremas tornaram-se mais radicais, a ponto de não haver pontos de contato entre os polos. Há dificuldade de comunicação e consenso, pois se tornam grupos que não discordam entre si, já que não há possibilidade de diálogo.[2]

Podemos observar, embora existissem preferências diferentes, que havia coesão social, com vários pontos de contato, em 2013[3]. Quando, antes da Copa de 2014, eclodiram os protestos contra o governo, a configuração mudou e os grupos ficaram mais distantes entre si. O tema da corrupção sistêmica trouxe ainda mais insatisfação e mais polarização. Basicamente, formaram-se dois polos definidos: os que se declararam contra o partido político que se encontrava na Presidência da República à época e os pró-governo (mais à esquerda no espectro ideológico).

Em 2016, segundo os mesmos autores, o cenário ficou ainda pior, uma sociedade mais dividida. De um lado, aqueles que protestaram contra a corrupção, junto com alguns liberais, conservadores, partidos de direita, proponentes do regime ditatorial e, do outro lado, ambientalistas, defensores dos direitos humanos, políticos de esquerda. Depois, ocorreu o impeachment da Presidenta da República e a eleição extremamente polarizada, eventos que ajudaram a distanciar os lados.

O primeiro efeito óbvio foi o fim dos consensos (e consensos são fundamentais na política). Outro efeito foi o dano à liberdade de expressão. O excesso de notícias falsas, somado às opiniões extremas, desestimulou a manifestação dos moderados. Hoje, não é aceitável criticar um extremo, porque a crítica o fará pertencer ao outro extremo. Essa situação tem trazido desencanto a muitos usuários das redes sociais, pois fica difícil (quase impossível) estabelecer um diálogo saudável (com argumentos).

O que queremos dizer ao falar de liberdade?
A liberdade de expressão trata-se de direito fundamental constitucionalmente previsto e de elemento central para a existência da democracia. As redes sociais são por excelência espaços virtuais de comunicação com pouca limitação aos usuários e, com um único clique, milhares de pessoas são alcançadas.

John Stuart Mill afirma enfaticamente que "[a] única liberdade que merece o nome é a liberdade de procurar o nosso próprio bem à nossa própria maneira, desde que não tentemos privar os outros do seu bem, ou colocar obstáculos aos seus esforços para o alcançar"[4]. As pessoas devem ser livres para atingir seus objetivos. No entanto, a liberdade de expressão enfrenta um limite importante: a liberdade de expressão de outra pessoa. Portanto, manifestações extremas que limitam e impedem a liberdade de expressão de terceiros não podem ser toleradas.

Notícias falsas causam danos à liberdade de expressão, pois resultam em posições extremas e desinformadas do interlocutor, distorcendo sua manifestação. Nesse sentido, a notícia falsa é muito prejudicial à democracia, pois promove mal-entendidos e falsos fundamentos e fatos que levam a mais falsas manifestações. Poucos buscam dados que contestem as notícias falsas e as câmaras de ressonância digital agravam ainda mais a disseminação de falsidades[5].

A questão é que criação de uma regra de proibição de notícias falsas não resolverá todos os problemas. Além disso, proibir sem cautela o que se entende por notícia falsa poderia arriscar, novamente, à própria liberdade de expressão, porque deixaríamos para o Poder Judiciário, moderadores e administradores de redes sociais o que se entende por notícia falsa. Não devemos tirar do controle dos próprios usuários a faculdade de dizer o que é falso e o que não é. Afinal, se os usuários cometem erros, o que impede o governo ou as empresas de cometê-los? Portanto, outras ferramentas contra notícias falsas devem ser consideradas (sem ignorar, obviamente, eventual regulação).

A internet, notícias falsas (fake news), algoritmos
Na edição de 13 de agosto de 2012, a revista The New Yorker publicou um artigo do escritor James Surowieck, intitulado "Downsizing supersize"[6], apresentando que o prefeito de Nova York, com vistas ao combate à obesidade, proibiu em 2012 os refrigerantes de grande porte do cardápio de restaurantes, estádios, cinemas e outros locais de entretenimento. As pessoas tomam decisões todos os dias, porém podem ser empurradas por outros indivíduos e cidadãos, por empresas e pelo governo com mais ou menos força. Embora se possa dizer que o governo tem tentado interferir nas escolhas de quem consome bebidas doces, também é verdade que as empresas interferem nas escolhas de compra das pessoas ao oferecer copos grandes.

É a arquitetura de escolha, sendo o termo adotado por Richard Thaler e Cass Sunstein[7] e criando um cenário que fornece o empurrão (nudge) para a melhor escolha. É difícil aceitar a realidade: todos somos, a todo o momento, influenciados, pressionados, bloqueados nas nossas escolhas quotidianas por agentes externos, como as empresas, governo, um amigo, a internet, opiniões e avaliações de terceiros, algoritmos.

Sem correr o risco de infringir a liberdade de expressão — por meio de proibições ou sanções contra os usuários — é possível criar um quadro para as pessoas refletirem ao se manifestarem nas redes sociais. A intenção será a redução de discursos radicais na internet e a divulgação de notícias falsas.

A programação do que se vê na internet depende do algoritmo e, consequentemente, do comportamento de cada usuário. Claro, o algoritmo interfere no comportamento do usuário. Em 2014, a revista Wired fez um experimento no Facebook. Mat Honan, redator sênior da Wired, "curtiu" de todas as postagens em sua linha do tempo por 48 horas, postagens boas ou ruins. Como resultado, em primeiro lugar, seus amigos foram embora da linha do tempo dele. Os anúncios permaneceram. Em seguida, os posts caminharam, no espectro político-ideológico, para a direita, uma extrema direita. Sua linha do tempo enviesada (biased).[8] Os algoritmos são escritos para parecer que o usuário está controlando o conteúdo, mas na verdade o controle está nas mãos de quem escreve o algoritmo[9].

O Facebook promoveu mudanças em seu algoritmo, tentando reduzir notícias falsas. No entanto, não parece ter sido bem-sucedido. No Brasil, durante as eleições de 2018 e de 2020, notícias falsas foram espalhadas com intensidade e compartilhadas por pessoas comuns, além de robôs, deliberadamente ou não.[10]

J. Nathan Mathias da Cornell University é autor do site CivilServant[11], encorajando comportamentos responsáveis na rede Reddit, usando o que chamou de AI-Nudge, baseado no trabalho de Richard Thaler e Cass Sunstein[12]. A ideia era encorajar as pessoas a fazer o check-in antes de postar qualquer comentário e a verificação de fatos aprimora o algoritmo em si. Segundo sua pesquisa, houve aprimoramento das publicações compartilhadas, mantendo a liberdade do usuário, mas reduzindo as notícias falsas.

A adoção de cutucadas deve seguir algumas regras básicas, como afirmou Richard Thaler: "Três princípios devem orientar o uso de nudges: Todas os nudges devem ser transparentes e nunca enganosos. Deve ser o mais fácil possível desativar o nudge, de preferência com um pequeno clique do mouse. Deve haver uma boa razão para acreditar que o comportamento que está sendo encorajado melhorará o bem-estar daqueles que estão sofrendo nudge".[13]

Da mesma forma, há nudges malignos nas redes sociais. Um bom exemplo é o WhatsApp, que pertence ao Facebook. Observe os botões para compartilhar notícias e fotos. Eles são facilmente acessíveis, são visíveis e não há nenhum outro recurso destacado. Apenas compartilhando. Nesse caso, a vida das pessoas não melhora com o compartilhamento de informações sem a necessária reflexão e análise crítica de seu conteúdo.

Dito isso, uma pesquisa apresentou uma possível solução[14]. Em 2012, muito antes da escalada da polarização política, eles propuseram mudanças no funcionamento do Facebook, usando plug-ins no navegador de internet Chrome e fizeram experiências com alguns voluntários. Três foram as sugestões, todas baseadas no conceito de nudge. A primeira, denominada picture nudge, consistia em mostrar cinco fotos de perfis de amigos ou não que potencialmente leriam a publicação, porque "uma pesquisa anterior descobriu que os usuários do Facebook muitas vezes não pensam em quem está em seu público e não têm uma ideia clara de quem pode ver suas postagens". A segunda, temporizador, serve "para encorajar os usuários a refletirem sobre suas postagens, nós projetamos um temporizador que insere um pequeno atraso antes que um post seja realmente postado". A terceira, cutucada sentimental, fornecendo “aos usuários feedback imediato sobre o conteúdo de suas postagens”.[15]

De fato, aconteceram melhorias quando os usuários compartilharam suas postagens, porque muitos refletiram antes de publicar, especialmente no que diz respeito à privacidade. Embora a pesquisa não tenha sido realizada com um grande grupo — e houve problemas técnicos — foi demonstrado inicialmente que é possível melhorar as redes sociais.

Considerações finais
É possível, sem desfigurar a liberdade de expressão dos usuários, aprimorar a internet e as redes sociais com a adoção de ferramentas simples, mas que promovem resultados sociais benéficos.

Não descartamos a relevante regulamentação estatal, embora reconheçamos a difícil tarefa de regulamentar a conduta do usuário, limitando sua liberdade de expressão. Por outro lado, os nudges mantêm a liberdade dos usuários, mas promovem algum grau adicional de reflexão sobre o conteúdo publicado. As redes sociais devem criar ferramentas que evitem o compartilhamento quase automático, simples e desimpedido. Impõe-se principalmente a promoção de um ambiente saudável para o usuário possua tempo e condições de decidir por si mesmo se a notícia (o link da internet) é uma fonte segura, verdadeira e responsável. A democracia do futuro depende de informações compartilhadas com extrema velocidade, mas também depende do grau de maturidade de seus usuários.

*O texto é resultado de pesquisa e debates no âmbito do Núcleo de Direito e Política (Dirpol) do PPGD/UFPR e foi apresentado em março de 2019 no Wasserstein Hall, Harvard Law School, Cambridge, Massachusetts, Estados Unidos, por convite da Associação Brasileira de Estudos Jurídicos de Harvard.

[1] Cf. PASQUALE, Frank. The Black Box Society. Cambridge: Harvard University Press. 2015.

[2] ORTELLADO, Pablo. RIBEIRO, Márcio Moretto. Mapping Brazil’s Polarization Online. Disponível em: https://theconversation.com/mapping-brazils-political-polarization-online-96434. Acesso em: 30/05/2021.

[3] ORTELLADO, Pablo. RIBEIRO, Márcio Moretto. Mapping Brazil’s Polarization Online. Disponível em: https://theconversation.com/mapping-brazils-political-polarization-online-96434. Acesso em: 30/05/2021.

[4] MILL, John Stuart. Sobre a Liberdade. Rio de Janeiro: Nova Fronteira, 2011, p. 28.

[5] Cf. BENKLER, Yochai; FARIS, Robert; ROBERTS, Hal. Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. New York: Oxford University Press, 2018, p. 4

[6] SUROWIECK, James. Downsizing supersize.  The New Yorker.  Disponível em: https://www.newyorker.com/magazine/2012/08/13/downsizing-supersize. Acesso em: 30.5.2021.

[7] A construção do argumento está em: THALER, Richard H. SUNSTEIN, Cass. R. Nudge. Improving Decisions About Health, Wealth and Happiness. New York, Penguin Books, 2009, p. 83 e seguintes.

[8] HONAN, Mat. I Liked Everything I Saw on Facebook for Two Days. Here's What It Did to Me. Wired Magazine, 2014. Disponível em https://www.wired.com/2014/08/i-liked-everything-i-saw-on-facebook-for-two-days-heres-what-it-did-to-me/, acesso em maio de 2021.

[9] Sobre essas questões, cf. SUSSKIND, Jamie. Future Politics: Living Together in a World Transformed by Tech. Oxford: Oxford University Press, 2018.

[10] MELLO, Patricia Campos. WhatsApp admite envio maciço ilegal de mensagens nas eleições de 2018. In.: Folha de São Paulo. Disponível em https://www1.folha.uol.com.br/poder/2019/10/whatsapp-admite-envio-massivo-ilegal-de-mensagens-nas-eleicoes-de-2018.shtml. Acesso em maio de 2021.

[11] Persuading Algorithms With an AI Nudge Disponível em: https://civilservant.io/persuading_ais_preserving_liberties_r_worldnews.html, acesso em maio de 2021.

[12] THALER, Richard H. SUNSTEIN, Cass. R. Nudge. Improving Decisions About Health, Wealth and Happiness. New York, Penguin Books, 2009.

[13] THALER, Richard H. The Power of Nudges, for Good and Bad. In.: New York Times. Disponível em https://www.nytimes.com/2015/11/01/upshot/the-power-of-nudges-for-good-and-bad.html, acesso em maio de 2021, tradução livre.  

[14] WANG, Yang et al, Privacy Nudges for Social Media: An Exploratory Facebook Study. Disponível em.  http://www2013.w3c.br/companion/p763.pdf, acesso em maio de 2021. DOI: https://doi.org/10.1145/2487788.2488038 .

[15] WANG, Yang et al, Privacy Nudges for Social Media: An Exploratory Facebook Study. Disponível em.  http://www2013.w3c.br/companion/p763.pdf, acesso em maio de 2021. DOI: https://doi.org/10.1145/2487788.2488038, p. 765 (tradução livre).

Autores

Tags:

Encontrou um erro? Avise nossa equipe!