Serão os bots uma pandemia que anda de mãos dadas com a covid-19?

Em março, o Facebook anunciou que eliminou mais de 1,3 mil milhões de contas falsas. Por outro lado, um novo estudo da Universidade de San Diego sugere que os efeitos dos bots, durante a pandemia, têm sido negligenciados.

Podem realizar tarefas simples e repetitivas muito mais rapidamente do que os humanos, mas, segundo o estudo “Spread of Misinformation About Face Masks and COVID-19 by Automated Software on Facebook”, publicado na JAMA Internal Medicine, são igualmente capazes de promover a desinformação a um nível nunca antes visto.

Embora o uso mais extenso de bots (de ‘robot’, aplicação destinada a simular ações humanas online) seja destinado ao rastreio da web, em que um script procura, analisa arquivos e informações de servidores da web, sendo mais de metade do tráfico total, na internet, originado pelos mesmos, a verdade é que “a pandemia de coronavírus gerou aquilo a que a Organização Mundial da Saúde chamou de ‘infodemia’ de desinformação”.

Quem o diz é John W. Ayers, cientista especializado em vigilância em saúde pública e professor associado na San Diego State University, ao site EurekAlert!, destinado ao aprofundamento de temáticas como a saúde ou a medicina . “Mas, os bots – como aqueles usados por agentes russos durante a eleição presidencial americana de 2016 – foram negligenciados como uma fonte de desinformação da covid-19”.

De acordo com Ayers, que liderou o estudo mencionado e exerce funções enquanto cofundador do Center for Data Driven Health, centro de pesquisa interdisciplinar, e vice-chefe de inovação da Divisão de Doenças Infecciosas, os bots são o principal patógeno da desinformação da pandemia nas redes sociais.

Juntamente com os restantes colaboradores da equipa, o investigador identificou grupos públicos no Facebook que foram fortemente influenciados por bots. Deste modo, mediram a rapidez com a qual os mesmos URLs (ou links) foram partilhados, numa amostra de cerca de 300.000 publicações disseminadas em grupos do Facebook que partilharam 251.655 links.

Quando os URLs são partilhados repetidamente por várias contas, num espaço de segundos, tal indica que são originados por contas de bots controladas por um software automatizado que coordena a sua ação. A título de exemplo, a equipa descobriu que, nos grupos do Facebook mais influenciados por bots, existiu um hiato, em média, de 4,28 segundos na partilha de links idênticos, em comparação com 4,35 horas percecionados nos grupos do Facebook menos influenciados por bots.

 

O estranho caso da danmask-19

No seguimento desta conclusão, Ayers e os seus colegas entenderam que, entre os grupos do Facebook mais ou menos influenciados por bots, era partilhado o link que remetia os internautas para um estudo clínico aleatório para avaliar as máscaras de proteção individual DANMASK-19, oriundas da Dinamarca.

“Selecionámos a DANMASK-19 no nosso estudo porque as máscaras são uma importante medida de saúde pública para potencialmente controlar a pandemia e são uma fonte de debate popular”, explicou ao mesmo órgão de informaç

ao Davey Smith, co-autor do estudo e chefe de doenças infecciosas da mesma universidade californiana.

Percebeu-se que 39% de todas as publicações cujo propósito passava pela divulgação do teste da DANMASK-19 foram feitas em grupos do Facebook mais influenciados por bots e somente 9% foram dirigidas aos grupos do Facebook menos influenciados pelos mesmos.

Curiosamente, em 20 por cento das publicações que contam com a veiculação do ensaio da DANMASK-19, feitas para grupos do Facebook mais influenciados por bots, pode ler-se que as máscaras prejudicam o utilizador, opondo-se às evidências científicas. “Estudo dinamarquês prova a nocividade de usar máscara” é uma das frases que se podiam encontrar nestes grupos. Além disso, 50% das publicações promoviam conspirações como “O fact-checking (verificação de factos) corporativo está a mentir-te! Tudo isto para servir a propaganda distópica #Agenda2030”.

Comprova-se também que as publicações que veiculavam o teste da máscara, dirigidas a grupos mais influenciados por estes novos robôs da era digital, tinham 2,3 vezes mais probabilidade de alegar que as máscaras prejudicam o utilizador e 2,5 vezes mais probabilidade de divulgar alegações de conspiração do que aquelas que podiam ser encontradas nos grupos de Facebook em que os bots não assumiam um papel tão importante.

Já no passado mês de março, a Facebook Inc. noticiou que eliminou 1,3 mil milhões de contas falsas, entre outubro e dezembro de 2020, e que tinha mais de 35 mil pessoas dedicadas ao combate à desinformação na sua plataforma.

A empresa também removeu mais de 12 milhões de peças sobre vacinas que os especialistas em saúde global sinalizaram como desinformação, pois as falsas alegações e conspirações sobre as vacinas contra o coronavírus proliferaram nos media, incluindo o Facebook e o Twitter.

Segundo a Reuters, “a divulgação de dados sobre desinformação pelo Facebook surgiu antes de uma inspeção do Comité de Energia e Comércio da Câmara dos Estados Unidos sobre como a tecnologia, incluindo o Facebook, está a lidar com a desinformação nas plataformas”.

 

“Os bots também prejudicam as instituições de saúde pública”

Não só o cidadão comum tem sofrido, durante a pandemia, os efeitos nefastos da evolução tecnológica. Na ótica de Eric Leas, outro dos coautores do estudo e professor assistente na mesma instituição de Ensino Superior, “a propaganda de desinformação da covid-19 parece estar a espalhar-se mais rápido do que o próprio vírus”, acrescentando que tal “é alimentado por bots que podem amplificar a desinformação numa taxa muito maior do que os utilizadores comuns”.

“Os bots também prejudicam as instituições de saúde pública. No nosso estudo de caso, os bots caracterizaram erroneamente uma publicação proeminente de um jornal médico de prestígio para espalhar desinformação”, disse Brian Chu, co-autor do estudo e estudante de medicina na University Of Pennsylvania. “Isso sugere que nenhum conteúdo está protegido contra os perigos da desinformação como arma”.

 

O enquadramento legal

“No regime legal vigente, a difusão de estudos científicos objectiva e comprovadamente falsos pode constituir uma violação do direito à protecção contra a desinformação, previsto no polémico artigo 6.º da recentemente aprovada Carta Portuguesa de Direitos Humanos na Era Digital”, começa por avançar ao i o advogado David Silva Ramalho, associado principal na equipa de Contencioso Criminal, Risco e Compliance da Morais Leitão.

“De acordo com esta disposição, constitui desinformação toda a narrativa comprovadamente falsa ou enganadora criada, apresentada e divulgada para obter vantagens económicas ou para enganar deliberadamente o público”, diz o profissional especializado em cibercrime e prova digital e assistente convidado na Faculdade de Direito da Universidade de Lisboa (FDUL). Esta narrativa também ter de ser “suscetível de causar um prejuízo público, nomeadamente ameaça aos processos políticos democráticos, aos processos de elaboração de políticas públicas e a bens públicos”, adianta

“Dependendo do modo como esta divulgação é feita, e se porventura surge falsa e enganadoramente associada a nomes de académicos reconhecidos, ou se aproveita e deturpa também de forma enganadora excertos de estudos já publicados, poderão surgir ilícitos de diferente natureza, designadamente em matéria de direitos de personalidade e jus-autoral”, esclarece Silva Ramalho, investigador no Centro de Investigação em Direito Penal e Ciências Criminais e Fellow no Tech and Law Center de Milão.

O autor de “Métodos Ocultos de Investigação Criminal em Ambiente Digital”, de 2017, obra em que explora a superação das dificuldades na investigação criminal em ambiente digital, lembra que “estes temas são já conhecidos do público e têm sido amplamente noticiados, desde logo por força da influência que as fake news podem ter em matéria eleitoral, mas não encontram ainda uma resposta satisfatória do ordenamento jurídico – talvez porque seja difícil conceber sequer uma”.

Por conseguinte, Silva Ramalho salienta que “o conflito entre as liberdades de expressão, de opinião e de informação, de um lado, e o novo direito à proteção contra a desinformação, do outro, é difícil de resolver, pelo menos sem correr o risco de sacrificar as primeiras para tutelar o segundo”.