Facebook explica por que inteligência artificial da rede não bloqueou a live do atirador da Nova Zelândia

"A inteligência artificial é uma parte extremamente importante da nossa luta contra o conteúdo terrorista em nossas plataformas e, embora sua eficácia continue melhorando, nunca será perfeita."
Equipe de Criação Olhar Digital21/03/2019 19h30

20190308013622-1920x1080
Publieditorial

O Facebook alega que seu sistema de inteligência artificial (IA) não estava preparado para um evento como o massacre ocorrido em duas mesquitas na Nova Zelândia na última sexta-feira (15/3), quando 50 pessoas foram mortas por um supremacista branco. A rede social tem sido criticada pelo fracasso de sua tecnologia na identificação automática das imagens.

Em uma postagem no blog, na última quarta-feira (20), Guy Rosen, vice-presidente de gerenciamento de produtos, afirmou que a IA só reconhece um conteúdo depois de “treinada”. Por exemplo, milhares de imagens de nudez ou propaganda terrorista são necessárias para ensinar o sistema a identificá-las.

“Vamos precisar fornecer aos nossos sistemas grandes volumes de dados desse tipo específico de conteúdo, algo que é difícil, uma vez que esses eventos são, felizmente, raros”, disse Rosen. Além disso, ele observou que é um desafio para o sistema reconhecer imagens “visualmente similares”, mas que poderiam ser inofensivas.

“A inteligência artificial é uma parte extremamente importante da nossa luta contra o conteúdo terrorista em nossas plataformas e, embora sua eficácia continue melhorando, nunca será perfeita”, completou.

Desde o tiroteio em Christchurch, Facebook,  Google e Twitter tiveram que responder a questionamentos sobre como controlar a disseminação da transmissão ao vivo do atirador.

Na segunda-feira (18/3), o Facebook disse que menos de 200 espectadores viram a transmissão ao vivo e que o vídeo atingiu cerca de 4.000 visualizações antes de ser retirado. O primeiro usuário a denunciá-lo o fez 12 minutos após o término da exibição. Nas primeiras 24 horas após o evento, a rede social removeu 1,5 milhão de uploads do vídeo, dos quais 80% foram bloqueados antes de entrarem na plataforma.

O post de quinta-feira também descreveu etapas que o Facebook planeja adotar. para que episódios do gênero não ocorram mais Elas incluem melhorar sua tecnologia de correspondência, descobrir como obter relatórios de usuários mais rapidamente e trabalhar ainda mais com o Fórum Global da Internet para combater o terrorismo.