Opinião

Guerra cognitiva: o uso de PsyOps online para manipulação da mente humana

Autores

24 de maio de 2022, 10h02

Os cérebros estão se tornando os novos campos de batalha. As guerras não são mais travadas apenas nas frentes de combate, pois as mentes humanas surgem como um novo cenário de guerra. As armas não precisam mais ser unicamente de natureza física, mas algumas podem consistir apenas em informações projetadas para manipular as emoções e o comportamento humano.

Spacca
O advogado Cristiano Zanin

A manipulação psicológica do inimigo — chamada de guerra cognitiva — tem produzido efeitos práticos até mais contundentes do que a destruição física de coisas e a eliminação de adversários. Seu objetivo é influenciar opiniões, crenças, percepções e comportamentos do público-alvo. Visa alcançar alguma mudança no domínio psicológico dos indivíduos usando informação e desinformação.

No contexto da guerra cognitiva, as "operações psicológicas", também conhecidas como PsyOps, ganham destaque por seu impressionante impacto desestabilizador. O termo surgiu no seio do Exército durante a 1ª Guerra Mundial, período no qual a psicologia se firmava como ciência, mas alguns de seus princípios já eram utilizados desde a Antiguidade como instrumento auxiliar das forças bélicas no contexto de uma guerra. Roberto Figueiredo Cavalcanti da Silva, comandante da aeronáutica, menciona que uma das mais importantes tarefas das operações psicológicas "é mostrar ao inimigo as vantagens de se desistir das contendas antes de nelas entrar"[1].

As PsyOps podem ser conceituadas como "operações planejadas para transmitir informações com o objetivo de influenciar as emoções, decepções, motivações, raciocínio e, finalmente, o comportamento de Governos, organizações, grupos e indivíduos"[2].

Atualmente as PsyOps estão difundidas em inúmeros setores e desempenham papéis importantes nas estratégias de Estados e agremiações políticas. Também podem ser utilizadas para a prática de lawfare, que "é o uso estratégico do Direito para fins de deslegitimar, prejudicar ou aniquilar um inimigo"[3]. As PsyOps podem se fundar em informações verdadeiras, mas também podem difundir propositalmente informações falsas. Assim, nem sempre se enquadram dentro dos parâmetros éticos e legais.

Segundo os pesquisadores americanos Tim Hwang e Lea Rosen, especialistas em Direito Internacional, as características únicas do ambiente online e os avanços na tecnologia estão dando origem a uma nova geração de PsyOps que são amplamente expandidas em escopo e eficácia[4].

Especialmente no ambiente das mídias sociais, as PsyOps alavancam uma série de técnicas diferentes, desde o uso de bots automatizados — contas falsas de usuários que muitas vezes repetem o mesmo conteúdo — até a disseminação sistêmica de informações enganosas por meio das mídias sociais[5]. Conforme pesquisa de 2017, a quantidade de bots poderia alcançar até 15% do total de contas do Twitter, o que corresponderia a algo em torno de 47 milhões de usuários fantasmas[6].

As primeiras descobertas de que bots estavam sendo usados nas redes sociais para disseminar informações falsas são de 2010[7]. De acordo com Hwang e Rosen, as campanhas de bots distribuem mensagens para usuários em qualquer lugar do mundo com pouco ou nenhum custo. Isso a torna uma estratégia acessível e permite que esses tipos de campanhas sejam conduzidos por pequenos grupos de indivíduos que anteriormente não teriam recursos para coordenar uma persuasão eficaz em escala e com uma taxa de iteração mais rápida[8].

Outra característica importante das campanhas de bots é que essa estratégia pode ser mais sutil. Os bots podem misturar suas mensagens persuasivas em conteúdos mais frugais do cotidiano daquele destinatário específico identificado pelo algoritmo, reforçando a credibilidade da informação e ofuscando o fato de se tratar de uma campanha de convencimento. Assim, pode ser mais difícil dizer quem está promovendo um esforço estratégico de persuasão ou mesmo quando um desses esforços começou ou terminou. Quando combinadas com os avanços na capacidade de gerar identidades falsas mais críveis como verdadeiras e uma maior compreensão dos fatores que impulsionam o comportamento do grupo, as PsyOps online permitem que uma variedade de atores efetivamente modele e convença em escala de forma mais significativa[9].

Como sugerem os cenários discutidos acima, a nova geração de PsyOps online pode ser mais destrutiva do que os tipos de técnicas usadas no passado. Ao mesmo tempo, a velocidade, os custos em queda, a difícil identificação de autoria e a riqueza de dados agora possíveis podem tornar essas estratégias cada vez mais atraentes para atores estatais e não estatais que buscam desestabilizar adversários em todo o mundo.

E isso já está acontecendo. Hwang e Rosen citam que, nos Estados Unidos, contas falsas foram usadas para reforçar o aparente apoio popular a candidatos políticos e têm sido vistas como a principal razão por trás da oscilação de votos até a última hora da eleição. No México, um recente ciclo de eleições presidenciais apresentou dois grupos opostos de bots tentando disputar entre si nas mídias sociais. Os bots também foram uma característica proeminente da discussão política online em torno da votação do "Brexit" no Reino Unido, ajudando a angariar apoio em torno da decisão de deixar a União Europeia. Zunzuneo — uma rede social baseada em texto lançada em Cuba — foi revelada em 2014 como um espaço apoiado por agências norte-americanas para influenciar a opinião pública e minar o regime[10].

Muitas dessas técnicas alavancam uma prática conhecida como astroturfing que é a criação de massas de identidades falsas para dar a impressão de que existe uma onda de opinião onde ela não existe na realidade[11]. Há diversos sites[12] em que é possível comprar curtidas e visualizações nas redes sociais. Um pacote "iniciante" no Instagram com 500 seguidores e 250 curtidas custa, em 2022, R$ 37. Já um pacote "influencer" com 20 mil seguidores e 10 mil curtidas sai por R$ 897.

Ben Nimmo, membro do Laboratório de Pesquisa Forense Digital (DFRLab) do Atlantic Council no Reino Unido, explica que quatro táticas se destacam nas guerras após o advento das redes sociais, batizando-as de "Abordagem 4D"[13]: descartar, distorcer, distrair e desanimar. Segundo o pesquisador, dispensar significa minar o oponente, maculando sua honra. Distorcer implica interpretar erroneamente os fatos e colocá-los fora de contexto, ou, ainda, produzir uma versão parcial ou totalmente falsa da realidade, sendo sua forma extrema a "reescrita da história". Distrair é desviar a atenção do público das atividades do ator e concentrá-la nas atividades do oponente. Desanimar diz respeito a assustar o público-alvo com advertências verbais ou imagens e vídeos perturbadores[14].

Outra técnica utilizada para aumentar a exposição de uma determinada narrativa nas redes sociais, segundo Beata Bialy, especialista do Centro de Excelência em Comunicações Estratégicas da Otan, é o troll. No entanto, segundo a especialista, é importante notar a diferença fundamental entre um troll "clássico" da internet e um troll "híbrido". A primeira categoria está presente nas mídias digitais desde o início e designa um tipo particular de usuário de mídia social que, por motivos puramente pessoais (frustração, vida infeliz e problemas psicológicos), tenta atrapalhar as conversas nas redes sociais ofendendo outros usuários, provocando e postando comentários desagradáveis ou fora de contexto. O outro é uma espécie de guerreiro da mídia social, contratado por uma organização estatal ou não estatal para apoiar a causa dessa organização e executar sua agenda, estando encarregado de postar comentários para promover a narrativa de seu patrono ou destruir a narrativa de seu oponente[15].

Para Beata Bialy, um método eficaz de aumentar o impacto de uma narrativa ou mensagens específicas é o uso coordenado de vários canais – abertos e fechados. A comunicação passa por plataformas de conversação pública, como o Twitter, e dentro de redes fechadas, como mensageiros criptografados ou até mesmo via PlayStation Network, que é extremamente desafiador para descriptografia e mais difícil de rastrear que o WhatsApp. Segundo a especialista, documentos vazados por Edward Snowden em 2013 revelaram que agências norte-americanas tentaram se infiltrar em conversas terroristas participando de jogos como World of Warcraft. As redes públicas são usadas principalmente para divulgação de propaganda ou desinformação, enquanto as redes sociais fechadas podem ser um canal eficaz para coordenação de atividades, recrutamento e mobilização de apoio[16]. Hwang e Rosen alertam que contas falsas geralmente repetem o mesmo conteúdo várias vezes. Além disso, fotos de perfil e outros conteúdos são muitas vezes copiados por atacado de outros lugares. Quando o conteúdo é gerado programaticamente, as postagens dessas contas falsas geralmente aparecem com estrutura sintática semelhante ou podem aparecer como coleções sem sentido de palavras[17]. Embora essa regularidade seja o meio pelo qual se torna possível a detecção de campanhas persuasivas, os especialistas advertem que o custo de criação de identidades mais críveis cai significativamente à medida que novas técnicas surgem. Os métodos para gerar de forma programática rostos sintéticos realistas em escala continuam a melhorar. Da mesma forma, os avanços no aprendizado de máquina estão permitindo a criação de uma fala de computador com um som cada vez mais autêntico. O objetivo final é permitir a criação de identidades que podem parecer e soar real, sem qualquer cópia óbvia de outras fontes[18].

Além da capacidade dessas identidades falsas parecerem reais, a tecnologia também reduz os custos de interação com usuários reais. De acordo com Hwang e Rosen, avanços no campo de aprendizado de máquina estão permitindo a criação de agentes conversacionais que são substancialmente mais sofisticados do que os disponíveis no passado. São identidades falsas que têm o poder de interagir de forma crível com usuários reais e ganhar sua confiança. Essa tecnologia permite campanhas mais sutis de persuasão e construção de relacionamento com usuários reais em escala. Isso também tornará essas campanhas menos detectáveis, pois o comportamento dos bots irá cada vez mais convergir com o comportamento normal dos usuários humanos online[19].

Além disso, a disponibilidade cada vez maior de uma enorme quantidade de dados sobre o comportamento social vem produzindo efeitos notáveis para as operações psicológicas[20]. Os usuários revelam suas preferências e conexões sociais por meio de suas atividades nessas mídias sociais que fornecem um diagnóstico preciso e continuamente atualizado de vastos segmentos da população. Essa abundância de dados aumentou significativamente a capacidade de direcionar mensagens de forma eficaz a determinados públicos. Assim, bots são adaptados para mensagens e apelos públicos específicos de interesse.

O algoritmo de programas como Facebook, Twitter e Instagram é trabalhado de forma a favorecer informações que se encaixam no perfil de preferências do usuário e bloqueiam as informações que não se encaixam. Com isso, o usuário fica numa bolha na qual apenas informações consistentes com a sua visão de mundo são apresentadas, deixando-os confiantes de que apenas suas opiniões estão corretas. Existe aquilo que os especialistas chamam de Câmara de Eco. Cada ponto de vista é dito e repetido milhares de vezes em cada um desses compartimentos fechados e invisíveis das redes sociais. Evidente que existe uma homofilia natural nas relações sociais humanas, mas o algoritmo potencializa esse cenário[21]. Homofilia pode ser entendida nesse contexto como a tendência de os indivíduos se aproximarem socialmente daqueles com características semelhantes (crenças, valores, etc.).

Esses dados sociais ainda possibilitam entender melhor a mecânica que impulsiona os fenômenos comportamentais do grupo, como a disseminação "viral" de conteúdo por meio de uma rede, ou os fatores que incentivam a disseminação de desinformação[22]. Isso deu origem a um corpo emergente de pesquisa chamado de nova "física social" — uma compreensão quantitativa suficientemente avançada de processos sociais que permite a previsão e manipulação desses processos[23].

A trajetória da tecnologia levanta a preocupação de que as PsyOps online tornar-se-ão cada vez mais poderosas e desestabilizadoras nos próximos anos, podendo ter uma capacidade sem precedentes de alterar cognições, emoções, crenças e comportamentos de indivíduos e grupos.

Ao longo do tempo, as motivações dos usuários para participar de discussões nas mídias sociais mudaram. A motivação puramente "social" foi sendo gradualmente substituída por outras como a busca por informação, o que colocou as plataformas sociais muito mais próximas da mídia tradicional. Os internautas estão cada vez mais considerando as mídias sociais como sua principal fonte de informação o que os torna um alvo atraente para aqueles que não hesitam em manipular ou falsificar fatos e apresentar sua versão da realidade.

Pesquisa realizada pela Câmara dos Deputados e pelo Senado em 2019 revelou que 79% dos brasileiros utilizam o WhatsApp como fonte de informação. O número de pessoas que consulta os grandes portais de notícias da internet para verificar a veracidade de uma informação é menos da metade (38%). Mesmo os canais de TV, que até poucos anos eram o principal mecanismo, são consultados por apenas 50% da população[24]. O Facebook é citado como fonte de informação por 44% dos brasileiros, ou seja, à frente dos grandes portais de notícia da internet (38%). Instagram (30%), rádio (22%), jornais impressos (8%) e Twitter (7%) completam a lista. Para muitos brasileiros o único contato com a internet se dá no momento em que verifica as mensagens de WhatsApp. Fora isso, a pessoa não tem mais um contato algum. Sequer sabe onde está o navegador em seu celular.

Não é demais lembrar que o objetivo de uma rede social é maximizar o tempo de uso de um indivíduo em sua plataforma. Com isso, ela criará maior engajamento, conseguirá capturar maiores informações para o sistema, retroalimentando-o, podendo inclusive obter vantagens comerciais, seja na assertividade com determinado anunciante que busca determinado público-alvo, seja pela própria informação em si. Nesse sentido, sabendo que alguns usuários somente se interessam por determinado tipo de informação que nem sempre corresponde à realidade, o algoritmo dessas redes sociais pode aproximar pessoas que pensam da mesma forma. Exemplificativamente, pessoas que acreditam no terraplanismo, embora isso seja consensualmente refutado pela comunidade científica, podem ser expostos apenas a esse tipo de notícia para aumentar o seu engajamento dentro do próprio aplicativo da rede social.

Essa mudança dramática no ambiente informacional foi chamada pelos pesquisadores chineses de "armamento das mídias sociais"[25], o que significa transformar as redes sociais em um campo de atividades informativas hostis realizadas em públicos-alvo na zona cinzenta entre a paz e a guerra.

Nesse sentido, parece altamente justificável chamar as mídias sociais de um campo de batalha no qual uma intensa luta por mentes está ocorrendo. É um ambiente onde podemos observar diferentes táticas, como engano, desinformação, propaganda, ameaçar adversários, mobilização de apoiadores e coordenação de ações. Surge então a questão sobre o que o mundo democrático pode fazer para combater as atividades hostis nas mídias sociais e no ambiente informacional em geral, visto que muitos atores sociais não observam as mesmas regras legais e valores democráticos. Importante, nessa linha, os acordos firmados neste ano de 2022 entre o Tribunal Superior Eleitoral (TSE) e as plataformas[26].

Referidos acordos podem ser considerados como um avanço em relação aos documentos firmados nas eleições de 2020 com o mesmo Tribunal, mas ainda não são suficientes para a veiculação de desinformação da prática de PsyOps online no meio das plataformas digitais.

É vital, portanto, aumentar a conscientização dos cidadãos e das autoridades sobre as atividades de influência usadas por meio de operações psicológicas. Sander van der Linden e Jon Roozenbeek[27] propõem quatro soluções para esse problema: algorítmica, corretiva, legislativa e psicológica. Na solução algorítmica, a responsabilidade recai sobre as próprias redes sociais. Os algortimos de aplicativos como Facebook, Instagram e Twitter têm de ser capazes de identificar rapidamente as fakenews e as retirarem de circulação. Na solução corretiva, a informação tem de ser rapidamente corrigida e chegar aos destinatários finais com rapidez. Talvez aí ganhe destaque o papel da grande mídia e de sites de checagem de fatos para confirmação da veracidade das informações. Na solução legislativa, as leis precisam ser alteradas. Já na solução psicológica, os pesquisadores propõem a chamada inoculação psicológica. A inoculação é um termo associado à imunologia e se refere ao mecanismo utilizado nas vacinas. O antígeno morto ou debilitado é inoculado no ser humano para que o indivíduo desenvolva uma forma leve da doença, com o fim de produzir imunidade por meio da criação de anticorpos. Assim, analogamente, a inoculação psicológica foi desenvolvida como uma vacina contra a lavagem cerebral e funcionaria com o mesmo postulado da inoculação da imunologia. Os indivíduos expostos a pequenas informações falsas enfraquecidas poderiam desenvolver mecanismos cognitivos de proteção a informações falsas mais robustas, algo como um "anticorpo mental" contra fake news.

O processo de inoculação consiste em dois componentes principais[28]. O primeiro consiste num aviso aos destinatários da mensagem de que a informação falsa estará chegando. Diz-se que essa é a base afetiva do mecanismo, pois as pessoas não gostam de ser enganadas, ficando alertas sobre essa possibilidade. O segundo consiste na preempção refutacional (prebunking). Diz-se que essa é a base cognitiva do mecanismo, pois exposta de antemão a argumentos que refutem a ameaça, a pessoa tem maior capacidade cognitiva de compreender se a ameaça se revela como uma informação falsa ou verdadeira mais facilmente.

Alexandre Brasil Fonseca explica que na estratégia de prebunking o foco não é o fato a ser refutado, pois este ainda não está definido, mas sim a explicitação das estratégias, das motivações, dos valores, da retórica, da estrutura, dos aspectos políticos, econômicos e de outros elementos que caracterizam a desinformação. No caso específico da pandemia, por exemplo, a Unesco desenvolveu documentos sobre o alastramento da desinformação mundo afora a fim de que o maior número de pessoas conhecesse essas informações falsas identificadas como forma de "inocular" os indivíduos contra esses tipos de mentiras[29].

Assim, em conclusão, pensamos que duas linhas principais de defesa são possíveis contra as PsyOps online: a educação e o combate às atividades hostis. A educação dá aos cidadãos e às autoridades conhecimentos básicos sobre mídia e mídias sociais que ajudam a construir um pensamento crítico e hábitos de verificação de fatos. Nesse sentido, se os “usuários” são identificados como falsos, o impacto persuasivo das PsyOps é significativamente diminuído e pode ser sinalizado pelos cidadãos para remoção pela plataforma.

Por fim, o combate às atividades hostis requer o rastreamento da manipulação e da desinformação online, sua inoculação e seu confronto com a verdade. Recursos de detecção rápidos e precisos serão a chave para uma dissuasão bem-sucedida. Os serviços de segurança, a aplicação da lei e os tribunais precisam ser suficientemente informados sobre a existência de potenciais tecnologias de guerra cognitiva e precisam ser treinados para investigar e combater o possível uso nefasto das mídias sociais.

[1] SILVA, Roberto Figueiredo Cavalcanti da. O papel das Operações Psicológicas e da ação da mídia nas operações militares. Revista da Escola Superior de Guerra, v. 24, n. 49, p. 257-274, 2008.
[2] MARTINS, Cristiano Zaniin; MARTINS, Valeska Teixeira Zanin; VALIM, Rafael. Lawfare: uma introdução. Coimbra: Almedina, 2020. p. 77.
[3] Op. cit., mesma página.
[4] HWANG, Tim; ROSEN, Lea. Harder, Better, Faster, Stronger: International Law and the Future of Online PsyOps. ComProp Working Paper, n. 1, Jan. 2017. p. 1. Disponível aqui. Acesso em 19/05/2022.
[5] Op. cit., mesma página.
[6] VAROL, Onur; FERRARA, Emilio; DAVIS, Clayton A.; MENCZER, Filippo; FLAMMINI, Alessandro. Online human-bot interactions: detection, estimation, and characterization. Disponível em: <https://arxiv.org/pdf/1703.03107.pdf> Acesso em: 15/05/2022.
[7] SHAO, Chengcheng; CIAMPAGLIA, Giovanni Luca; VAROL, Onur; FLAMMINI, Alessandro; MENCZER, Filippo. The spread of fake news by social bots. Disponível aqui. Acesso em 18/05/2022.
[8] Op. cit., p. 4-5.
[9] Op. cit., mesma página.
[10] Op. cit., p. 2-3.
[11] Op. cit., p. 2-3.
[12] RESENDE, Flávio. 9 melhores sites para comprar seguidores no Instagram 2022. Disponível aqui. Acesso em: 22/05/2022. Disponibilizado em: 02/01/2022. Acesso em: 22/05/2022.
[13] BIALY, Beata. Social Media – From Social Exchange to Battlefield. The Cyber Defense Review, vol. 2, n. 2, Summer, 2017, pp. 69-90. p. 79. Disponível em: <https://www.jstor.org/stable/26267344?seq=1>. Acesso em 22/05/2022.
[14] Op. cit., p. 79-80.
[15] Op. cit., p. 83.
[16] Op. cit., p. 83-84.
[17] HWANG, Tim; ROSEN, Lea. Op. cit., p. 3.
[18] Op. cit., mesma página.
[19] Op. cit., p. 3-4.
[20] Op. cit., p. 4
[21] GREIFENEDER, Rainer; JAFFÉ, Mariela E., NEWMAN, Eryn J.; SCHWARZ, Norbert. What is new and true about fake news? In: GREIFENEDER, Rainer; JAFFÉ, Mariela E., NEWMAN, Eryn J.; SCHWARZ, Norbert. The psychology of fake news: accepting, sharing, and correcting misinformation. Londres: Taylor & Francis, 2021.
[22] HWANG, Tim; ROSEN, Lea. Op. cit., p. 4.
[23] Op. cit., mesma página.
[24] CORREIO BRAZILIENSE. WhatsApp é a principal fonte de informação dos brasileiros, indica pesquisa. Disponível aqui. Acesso em 15/05/2022. Disponibilizado em 10/12/2019.
[25] CHEN, Long; CHEN, Jianguo; XIA, Chunhe. Social network behavior and public opinion manipulation. Journal of Information Security and Applications, v. 64, fev. 2022, p. 1-15, p. 1. Disponível aqui. Acesso em 21/05/2022.
[26] TRIBUNAL SUPERIOR ELEITORAL. TSE e plataformas digitais assinam acordo nesta terça-feira (15). Disponível aqui. Acesso em 23/05/2022. Disponibilizado em 14/02/2022.
[27] LINDEN, Sander van der; ROOZENBEEK, Jon. Psychological inoculation against fake news. In: GREIFENEDER, Rainer; JAFFÉ, Mariela E., NEWMAN, Eryn J.; SCHWARZ, Norbert. The psychology of fake news: accepting, sharing, and correcting misinformation. Londres: Taylor & Francis, 2021., p. 150.
[28] Op. cit., p. 151.
[29] FONSECA, Alexandre Brasil. Desinformação nas ciências e nas notícias: mais do que denunciar é preciso prenunciar. Disponível aqui. Acesso em 15/05/2022. Disponibilizado em 21/07/2020.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!