Nos últimos meses, governos de diversos países pressionaram redes sociais como o Facebook e o Twitter para que tomem medidas que ajudem a combater a expansão de conteúdo terrorista na web. Na última quinta-feira, 15, a rede social de Zuckerberg divulgou um comunicado mostrando seus recentes esforços para combater o problema, incluindo o uso da inteligência artificial. 

“Não há lugar no Facebook para o terrorismo. Removemos pessoas e postagens que apoiam o terrorismo quando ficamos sabendo deles. Quando recebemos notificações de postagens com conteúdo potencialmente terrorista, revisamos a denúncia com cautela e urgência. Nos raros casos em que descobrimos evidências de danos iminentes, informamos prontamente as autoridades”, explica o Facebook.

A rede social tem usado a inteligência artificial de diversas maneiras. Confira algumas delas:

  • Imagens: sempre que alguém carrega uma foto ou vídeo terrorista, o sistema do Facebook busca em seu banco de dados se a imagem corresponde a algum conteúdo conhecido. “Isso significa que, se já removemos um vídeo ou propaganda do Estado Islâmico, podemos impedir que outras contas enviem o mesmo conteúdo”, explica a rede social.
  • Linguagem: os sistemas de inteligência artificial também conseguem identificar textos que defendem posturas terroristas e, assim, criar “sinais” que ajudem a encontrar rapidamente pistas de propagandas terroristas. A empresa explica que, por enquanto, o sistema está em fase inicial, mas ele poderá cumprir a tarefa com mais facilidade.
  • Grupos: o sistema também consegue identificar grupos, páginas e perfis que divulguem conteúdos relacionados a terrorismo na plataforma. O Facebook explica que é possível saber até se eles foram criados por usuários já punidos por isso.

Trabalho em equipe

No comunicado, a rede social afirma que não consegue realizar todo o trabalho sozinha e, por isso, precisa da ajuda de seus usuários. 

“Hoje, iniciamos um novo esforço para falar mais abertamente sobre alguns assuntos complexos. Esperamos que esse seja um lugar não só para explicar as nossas escolhas, mas também para falar sobre questões difíceis, como ‘Como as plataformas devem agir para impedir que terroristas espalhem suas propagandas?’, ‘Depois que alguém morre, o que acontece com sua identidade online?’, ‘O quanto as empresas e redes sociais devem monitorar postagens controversas e imagens em suas plataformas?’, ‘Quem consegue definir o que é uma notícia falsa – e o que é simplesmente um discurso político controverso?’, ‘As redes sociais são boas para a democracia?'”, explica o Facebook.

Para discutir esses temas, a rede social sugere que os usuários enviem suas ideias para o e-mail hardquestions@fb.com.