O órgão norte-americano que analisa pedidos de patente publicou nesta semana um documento proposto pelo Facebook que poderia acelerar o processo de julgamento sobre conteúdo indicado como impróprio. Incluindo as famigeradas notícias falsas.

A patente foi pedida em junho de 2015 e ainda não foi aceita, segundo informa o The Verge. Além disso, a própria empresa alerta sobre a possibilidade de que a tecnologia descrita ali nunca venha a ser implementada, o que não impediu o site de especular.

publicidade

O que propõe o Facebook é usar aprendizado de máquina para que o processo de revisão de conteúdo fique mais inteligente. Hoje, quando o usuário indica algo como impróprio, esse material vai para a fila de análise humana; com a nova tecnologia, um robô passaria a observar o processo para identificar semelhanças entre os tipos de conteúdo que geralmente acabam banidos da rede social.

A ideia é que, com o tempo, a máquina fique tão inteligente que será capaz de adivinhar o que tem mais probabilidade de ser excluído, então ela passaria esse material na frente dos demais na fila da análise que é feita pelos funcionários.

publicidade

O Facebook se recusou a informar se já implementou esse esquema, mas a probabilidade existe, tendo em vista a eficiência das suas máquinas em detectar pornografia. O que o Verge especula é se a tecnologia também pode ajudar a combater o problema das notícias falsas na rede social.

Embora esteja sob ataque porque parte da imprensa o culpa pela eleição de Donald Trump como presidente dos Estados Unidos, o Facebook tem sido cauteloso quanto ao uso de algoritmos para resolver essa questão. Isso porque é um trabalho eticamente complicado. Enquanto pornografia e discurso de ódio geralmente são facilmente identificáveis, determinar se um texto é verdadeiro ou falso envolve um nível mais subjetivo de julgamento.

publicidade

O ideal é que um trabalho desses seja tocado por uma equipe editorial, e o Facebook até tinha uma, que cuidava da curadoria dos Trending Topics, mas demitiu todo mundo após surgirem evidências de que o recurso tinha sido contaminado pela visão política dos funcionários. Só que o Facebook não quer se meter na liberdade dos usuários, até porque um deles pode deliberadamente querer compartilhar um link de notícia falsa e não caberia à rede social dizer que isso é proibido, caso contrário o Facebook seria classificado como uma empresa de mídia, o que Zuckerberg vem negando há anos.

Usuários já contam com ferramentas de denúncia que podem ser usadas para marcar conteúdo enganoso, mas funcionários relataram recentemente que esse não era um assunto levado a sério internamente. Mas, depois de levantada a polêmica em torno de Trump, o Facebook colocou em teste um sistema que pergunta às pessoas qual é o grau de confiabilidade passado por certos links noticiosos, num esforço de ajudar sem ter que efetivamente dizer o que pode ou não pode ser postado.