Facebook vai criar sistema para estudar comportamentos nocivos no site

Plataforma secreta será exclusiva para bots simularem atividades de usuários reais; ideia do projeto é identificar possíveis brechas que podem viabilizar abusos no site original
Equipe de Criação Olhar Digital16/04/2020 23h38

20191223094011
Publieditorial

O Facebook trabalha em uma nova plataforma para estudar as atividades de bots e usuários mal-intencionados na rede social. De acordo com o The Verge, a ferramenta, que deve se chamar Facebook WW, corresponde a uma versão reduzida do site e será restrita a robôs capazes de simular o comportamento de usuários reais. A iniciativa foi revelada por um estudo publicado no próprio site da empresa.

A ideia do projeto é identificar possíveis brechas que podem viabilizar abusos na rede social. Os pesquisadores do Facebook poderão, por exemplo, treinar um bot com comportamentos nocivos para se conectar com outros que apresentam características semelhantes a de vítimas de golpe na plataforma real.

Outra possibilidade é programar robôs para encontrar e difundir conteúdos que confrontam as regras de moderação da rede social. Assim, caso os bots “mal-intencionados” tenham sucesso, a companhia pode identificar de quais vulnerabilidades ele se aproveitaram para praticar as violações.

Além disso, segundo o The Verge, alguns bots podem ter acesso a plataforma real do Facebook, no entanto, eles serão limitados somente a consumir dados produzidos pela interação de usuários reais da rede, desde que não descumpram regras de privacidade.

Reprodução

Por outro lado, os pesquisadores pretendem desenvolver “bots totalmente isolados que podem exibir ações e observações arbitrárias”, com o intuito de simular a reação dos usuários reais diante de atualizações no Facebook – atualmente, a companhia costuma realizar pequenos testes com um número reduzido de pessoas reais.

Eles alertam, no entanto, que é necessário evitar o contato dos bots com os usuários reais. “Os robôs devem ser adequadamente isolados de usuários reais para garantir que a simulação, embora executada em código de plataforma real, não leve a interações inesperadas entre robôs e usuários reais”, dizem os pesquisadores.

Fonte: The Verge