O Facebook anunciou nesta quarta-feira (13) que removeu milhões de postagens, entre abril e setembro, por violar regras com práticas de incitação ao ódio, atividade sexual e outros conteúdos ofensivos. Pela primeira vez, a empresa também divulgou dados de conteúdos retirados do Instagram, aplicativo de fotos comprado pela companhia.
Durante o segundo e o terceiro trimestre do ano, o Facebook removeu 58 milhões de postagens de pornografia e atividades sexuais, 5,7 milhões de posts relacionados a assédio e bullying e 11,4 milhões por discursos de ódio. Os números são apontados pelo relatório bianual de normas da comunidade.
O vice-presidente de integridade do Facebook, Guy Rosen, afirmou que a empresa melhorou a maneira como detecta discursos de ódio, e isso tem refletido na filtragem para remoção desses conteúdos. “Estamos satisfeitos com esse progresso”, disse o executivo. “Essas tecnologias não são perfeitas e sabemos que os erros ainda podem acontecer”, admitiu.
A melhora na identificação de conteúdo ofensivo também reflete na remoção de postagens relacionadas à nudez infantil e à exploração sexual. Entre julho e setembro, a empresa removeu 11,6 milhões de conteúdos desse gênero, contra quase 7 milhões no trimestre anterior. Já no Instagram, cerca de 753 mil posts sobre exploração sexual infantil foram retirados da plataforma.
O Facebook atribuiu o progresso ao aperfeiçoamento das técnicas usadas para detecção de tópicos ofensivos, incluindo o modo como a empresa armazena impressões digitais. Os dados divulgados aumentam o debate em que a companhia se encontra sobre qual o limite da liberdade de expressão na rede social, algo que Mark Zuckerberg vem tentando esclarecer.
Além de pornografia infantil, assédio e incitações ao ódio, outra vitória se deve ao fato do Facebook aumentar a vigilância sobre posts de suicídio, automutilação e propaganda terrorista. Números mostram que, entre abril e setembro, a rede social retirou 4,5 milhões de postagens que retratavam suicídio e automutilação.
Outro tópico que obteve atenção especial dos executivos da empresa foi a propagação terrorista na plataforma. Após um atirador matar 50 pessoas ao vivo na Nova Zelândia e postar na rede social no início deste ano, o Facebook removeu aproximadamente 4,5 milhões de publicações relacionadas ao ataque. A empresa disse que identificou cerca de 97% dos posts antes que os usuários vissem.
Via: CNET