Informações falsas ou distorcidas são prejudiciais por natureza, mas, durante uma crise santária de nível global como a pandemia da Covid-19, elas se tornam ainda mais perigosas. É por isso que redes sociais, como Twitter, Facebook e YouTube, têm se empenhado para impedir a disseminação desse tipo de conteúdo entre seus usuários. Porém, nem sempre elas conseguem.

Um exemplo de fracasso ocorreu em maio, quando um vídeo de conspirações antivacina tornou-se viral nas plataformas. O material chamava-se “Plandemic” (uma brincadeira com as palavras “plano” e “pandemia”), e conseguiu 8 milhões de visualizações com a veiculação de um punhado de teorias absurdas. Entre elas, a clássica (e já desmentida) história de que Bill Gates estaria planejando incorporar microchips às vacinas contra a Covid-19. 

publicidade

O vídeo foi retirado do ar após alguns dias, mas seus criadores não desistiram. Eles passaram a anunciar uma continuação chamada “Plandemic: Indoctornation” para esta terça-feira (18). A remoção do vídeo original foi usada para criar um buzz sobre o lançamento da sequência, que foi promovida mais de 887 vezes no Facebook. 

iStock-1173494837.jpg

publicidade

Redes sociais frequentemente têm de lidar com o compartilhamento em massa de fake news. Imagem: iStock

 

publicidade

Como as redes sociais agiram

Dessa vez, as redes sociais agiram mais rápido. O LinkedIn foi o primeiro a tomar uma atitude, removendo antes mesmo da estreia as contas que promoviam “Indoctornation”. O Facebook, por sua vez, impediu que os usuários republicassem o link para o vídeo, que foi carregado em um site externo. 

“Como o vídeo anterior violou nossas políticas de desinformação sobre a Covid-19, bloqueamos o acesso a esse domínio de nossos serviços”, afirmou um porta-voz do Facebook ao The Verge. “Este último vídeo contém informações que nossos parceiros de verificação de fatos classificaram repetidamente como falsas, então reduzimos sua distribuição e adicionamos um rótulo de aviso mostrando suas inconsistências”.

publicidade

O YouTube registrou poucas tentativas de upload de “Indoctornation”, e afirma estar impedindo que elas sejam concluídas. A empresa informou, também, que avaliará cada upload individualmente para checar a presença de fragmentos do vídeo.

Já o Twitter não bloqueou a publicação do material, mas associou a ele um aviso dizendo que é “potencialmente spam ou inseguro”. Essa decisão, embora menos efetiva, é compreensível. Afinal, diferente de outros vídeos considerados perigosos, “Indoctornation” não sugere tratamentos absurdos para os pacientes com Covid-19, o que de fato representaria risco à vida dos usuários.

Embora a atuação em tempo real das redes sociais tenha sido bem-sucedida, não é possível afirmar que elas adotariam medidas igualmente imediatas sob outras circunstâncias. Afinal, o lançamento de “Indoctornation” foi anunciado 887 vezes. Não houve falta de tempo para se preparar. 

Via: The Verge