Facebook tem um problema com boatos, mas a solução é mais difícil do que parece

Equipe de Criação Olhar Digital14/11/2016 19h10

20160810065728
Publieditorial

O Facebook é um ninho de boataria, e isso não é novidade. Já falamos sobre isso há meses no Olhar Digital. Recentemente, com a eleição nos Estados Unidos, a empresa passou a ser mais duramente cobrada por ações que possam conter a disseminação de notícias falsas, mas o caminho até lá será longo, se é que é possível chegar a este objetivo.

Mark Zuckerberg publicou um post em sua página na rede social reduzindo o papel do Facebook na eleição de Donald Trump. Segundo ele, 99% do que circula no serviço é verdadeiro e apenas 1% pode ser classificado como boato. Zuck também acrescenta que, apesar disso, a meta é ter 0% de informação falsa na página, mas o problema é que isso é simplesmente impossível.

Para isso, o Facebook implementa um sistema de crowd-sourcing, que permite que os próprios usuários denunciem conteúdo falso para que ele seja eliminado ou, no mínimo, tenha seu alcance reduzido, diminuindo o impacto que a informação errada pode ter na sociedade. Se muitas pessoas denunciam, então a informação é falsa, não é mesmo?

O problema é que não é tão simples assim resolver a questão. A tendência é que pessoas que vejam uma notícia verdadeira, mas que contrarie seu ponto de vista, denunciem o post por falsidade. Ao mesmo tempo, elas podem compartilhar e endossar notícias falsas, mas que coincidam sua visão de mundo. Nem todo mundo tem o discernimento para separar as coisas, infelizmente.

Vamos pensar em um exemplo bem brasileiro de política. Se, de fato, o Facebook implementar ferramentas de denúncias de posts falsos, uma notícia contra o Partido dos Trabalhadores pode ser denunciada massivamente por meio de ação coordenada até que o seu alcance seja suprimido. O contrário também é plausível; uma notícia favorável pode ser alvejada por denúncias por pessoas contrárias ao PT. Isso não é bom para ninguém.

A outra opção seria o Facebook assumir que é uma empresa de mídia, o que eles negam com todas as forças. Ao fazer isso, a companhia passaria a assumir a responsabilidade pelo que ali circula e poderia contratar editores, pessoas com treinamento para lidar com os fatos. Elas poderiam fazer o trabalho de checagem dos fatos e marcar os posts falsos com um selo de informação duvidosa ou as notícias verdadeiras com um selo de veracidade.

Só que até isso tem seus problemas. Quem são as pessoas que ficam a cargo de informar 1,6 bilhão de usuários? Quais são seus pontos de vista sobre política, economia, tecnologia, moda, ecologia, culinária…? Como garantir que eles não estão enviesados? Recentemente, o Facebook se viu em uma chuva de críticas porque seus editores estariam favorecendo sites de orientação progressista (ou liberal, no jargão político dos EUA) em um recurso menor como o Trending Topics, que destaca os assuntos mais comentados do momento. Imagine se isso acontecesse no feed de notícias dos usuários, que é a parte mais importante do site?

Outra alternativa: dar um selo de autenticidade a páginas pré-selecionadas julgadas confiáveis. Aí o problema se torna outro, porque, ao fazer isso, você também joga automaticamente todas as outras páginas na segunda categoria, que é implicitamente não-confiável. A questão é que também existe informação correta fora da “grande mídia”, e isso colocaria blogs e sites menores, mas que tratam a informação com cuidado, fora da jogada.

Há mais uma solução problemática, que é utilizar a inteligência artificial do Facebook para descobrir o que é falso e o que é verdadeiro. A empresa até tem a capacidade técnica para fazer isso, de fazer seu algoritmo ler e entender o conteúdo que é publicado, mas para decidir se é falso ou não, ela provavelmente vai precisar bater a informação com as “fontes confiáveis”, novamente incorrendo no problema de decidir o que é ou não confiável. Ainda há a situação de que nem mesmo algoritmos são totalmente neutros, e acabam refletindo visões, opiniões e até preconceitos das pessoas que os desenvolvem.

E, finalmente, há um problema insolúvel. Uma das principais missões do Facebook é não censurar opiniões, e muitas vezes as “notícias falsas” são, na verdade, apenas opiniões interpretadas por uma parte do público como fato incorreto. A linha é tênue e é muito difícil definir o que é mentira, o que é verdade e o que é opinião.

O fato é que Facebook não é dono da razão. Não existe meio de fazer a moderação do conteúdo verdadeiro e falso com total imparcialidade, porque não importa qual método for usado, ele tem em algum nível interferência humana. E isso é ensinado no primeiro semestre de qualquer curso de jornalismo: não existem humanos totalmente imparciais.