O YouTube divulgou ontem um documento sobre as medidas que vem tomando para manter vídeos extremistas, odiosos ou pornográficos longe de sua plataforma. O documento revelou que o Brasil era o terceiro país que mais denunciava vídeos da plataforma, atrás apenas da Índia e dos Estados Unidos.
No total, o site recebeu mais de 30 milhões de denúncias contra 9,3 milhões de vídeos diferentes entre outubro e dezembro de 2017. Cada vídeo pode ser denunciado várias vezes, por isso a discrepância entre os números. Ao todo, 8,28 milhões de vídeos foram removidos do YouTube durante o período porque violavam algum aspecto de suas diretrizes de comunidade.
Robôs fazendo o trabalho sujo
Dos 8,28 milhões de vídeos que foram removidos da plataforma, 6,68 milhões (80%) deles foram denunciados por máquinas. Nesses casos, algoritmos de aprendizagem de máquina do próprio YouTube identificam que o vídeo contém imagens que violam suas diretrizes e, em alguns casos, removem-no antes mesmo de que ele seja enviado para revisão humana.
Segundo a empresa, esses algoritmos permitiram, no quarto trimestre de 2017, que 50% dos vídeos removidos por conter discursos extremistas fossem removidos em até duas horas de publicação. Dentre os vídeos denunciados por máquinas no período, 76% foram removidos antes mesmo de ter uma única visualização. E em dezembro de 2018, 98% dos vídeos removidos por conter extremismo violento foram identificados por máquinas.
Como o Digital Trends aponta, a tecnologia de aprendizagem de máquina agilizou em muito o trabalho de remoção de vídeos que incitam violência. No começo de 2017, só 8% desses vídeos eram removidos com menos de 10 visualizações. A tecnologia foi introduzida em junho de 2017, e no fim do ano mais da metade dos vídeos removidos por esse motivo saíam da plataforma antes de atingir esse número.
Polícia comunitária
Além dos vídeos denunciados por máquinas, o YouTube também avalia (e, em muitos casos, remove) vídeos denunciados pelos seus próprios usuários. Entre eles há alguns usuários que fazem parte do programa de “marcadores confiáveis”, um grupo de usuários que se especializa em denunciar vídeos que infrigem as diretrizes da comunidade.
Esse grupo é composto tanto por usuários comuns quanto por membros de organizações não-governamentais e autoridades estatais. E o site também possui um sistema de compartilhamento de “hashes” (que são como impressões digitais dos vídeos) para impedir que vídeos que foram denunciados e removidos sejam novamente colocados na plataforma. O vídeo abaixo fala mais sobre como funciona o processo de denúncias do YouTube: