Caso as eleições presidenciais norte-americanas se tornem um caos ou apresentem agitação civil, o Facebook vai “restringir a circulação de conteúdos” na plataforma. Foi o que disse o diretor de assuntos globais, Nick Clegg, em entrevista ao jornal britânico Financial Times, publicada na manhã desta terça-feira (22).

A afirmação vem em um momento em que a rede sofre pressões sobre a forma como vai agir no combate à desinformação que circula pelos feeds durante o período eleitoral. Segundo ele, o Facebook se preparou para o pleito e criou um plano que entrará em vigor caso as eleições saiam dos padrões.

Sem dar muitos detalhes sobre quais seriam essas soluções, Nick afirmou que “existem algumas opções se realmente houver um conjunto de circunstâncias extremamente caóticas e, pior ainda, violentas”.

Ele comentou que o Facebook já agiu em outras eleições, visando evitar uma instabilidade geral. “Temos agido agressivamente em outras partes do mundo onde pensamos que há uma instabilidade cívica real e obviamente temos as ferramentas para fazer isso [de novo]”, declarou.

Segundo o executivo, falar nas possíveis ações daria aos agentes mal-intencionados a oportunidade de usar essas informações para manipular o sistema. No entanto, o Facebook reorganizou as coisas de forma rígida pelo qual as decisões são tomadas em diferentes níveis, de acordo com a gravidade da controvérsia.

O que se sabe até então, com base em eleições anteriores, como no Sri Lanka e em Mianmar, ambos na Ásia, é que entre as soluções criadas pela plataforma estava a redução do alcance de publicações feitas por infratores das políticas da rede, que eram reincidentes, e a limitação da distribuição de “conteúdo limítrofe”, ou seja, que não violavam as regras da comunidade, mas que chegavam perto disso ou eram considerados sensacionalistas.

ReproduçãoRecentemente, o Facebook removeu diversas páginas que espalhavam desinformação pela rede. Foto: Shutterstock

O diretor ainda disse que o Facebook está investindo consideravelmente em recursos e que deve ser criado o “Centro de Operações Eleitorais” de modo a monitorar atividades suspeitas.

“O Facebook está realizando varreduras proativas para grupos perigosos e incitação, incluindo em áreas onde sabemos que sua atividade provavelmente será mais pronunciada em outras partes do país”, concluiu.

Facebook tem dificuldade em identificar discursos de ódio

Em uma carta aberta, divulgada em novembro de 2018 pelo CEO do Facebook, a plataforma falou sobre um novo projeto de governança e aplicação de conteúdo. Na ocasião, o executivo disse que a experiência da rede mostrou que “sem salvaguardas suficientes, as pessoas farão mau uso dessas ferramentas para interferir nas eleições, espalhar desinformação e incitar a violência”, afirmou.

Por isso, segundo ele, a empresa criaria um projeto de identificação proativa de conteúdo prejudicial. “A melhoria mais importante na aplicação de nossas políticas é o uso de inteligência artificial para relatar proativamente conteúdo potencialmente problemático para nossa equipe de revisores e, em alguns casos, para tomar medidas sobre o conteúdo automaticamente”, declarou na carta.

No entanto, o comunicado também apresentou as principais dificuldades da plataforma ao gerenciar os conteúdos produzidos pelos usuários, principalmente quando se trata de questões políticas.

“Algumas categorias de conteúdo prejudicial são mais fáceis de serem identificadas pela Inteligência Artificial e, em outras, leva mais tempo para treinar nossos sistemas. Por exemplo, problemas visuais, como identificar nudez, costumam ser mais fáceis do que desafios linguísticos diferenciados, como discurso de ódio”, justificou.

O comunicado continua dizendo que, apesar disso, a empresa está progredindo também nesse tema, com a identificação de 52% desse tipo de conteúdo. “Este trabalho exigirá mais avanços em tecnologia, bem como a contratação de mais especialistas em idiomas para chegar aos níveis que precisamos”, afirma.

Fonte: ARSTechina