O Facebook entrou no meio da discussão sobre os tiroteios registrados na Nova Zelândia na última semana após todo o ataque ter sido transmitido ao vivo por meio da plataforma. Agora, a empresa revelou um pouco mais sobre a forma como seus serviços foram usados pelo atirador e quantas pessoas foram impactadas pelo conteúdo.
Segundo a empresa, o vídeo original foi visto por apenas 200 pessoas enquanto a transmissão estava ao vivo, e só foi reportado por ser um conteúdo impróprio 12 minutos após o encerramento da transmissão. A remoção do material, no entanto, só aconteceu quando as autoridades intervieram no caso e ordenaram ao Facebook que excluísse o material, o que aconteceu em algum momento não especificado pela empresa.
Até a remoção, o conteúdo havia sido reproduzido cerca de 4 mil vezes, informa a empresa. No entanto, pouco tempo depois, o vídeo começou a ser subido para a plataforma repetidas vezes: foram removidos cerca de 1,5 milhões de vídeos do ataque nas primeiras 24 horas após o acontecimento, sendo que 1,2 milhões foram barrados já no momento do upload, o que significa que não chegaram a impactar nenhum usuário da plataforma.
“Estamos trabalhando diretamente com a polícia da Nova Zelândia para responder ao ataque e apoiar a investigação. Removemos o vídeo em minutos após entrarem em contato, e após o ataque, temos fornecido todos os recursos para as autoridades”, diz o comunicado assinado por Chris Sonderby, vice-presidente do Facebook.
Sonderby também informa que alguns detalhes do caso propositalmente não estão sendo compartilhados a pedido das autoridades neozelandesas.