Algoritmo do YouTube sugeria vídeos de crianças após usuário ter assistido a conteúdos adultos

Segundo reportagem do The New York Times, "em muitos casos" o algoritmo da plataforma recomendou vídeos principalmente de meninas depois que os usuários assistiam conteúdo sensualizados
Redação03/06/2019 17h55, atualizada em 03/06/2019 19h30

20190424054615-1920x1080

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O YouTube tem um problema sério com vídeos relacionados a crianças. Apesar dos esforços feitos para combater o uso da plataforma por pedófilos, outra frente de atuação preocupante parece ter sido descoberta.

Segundo matéria feita pelo The New York Times, uma pesquisa recente descobriu que o sistema sugere, nas recomendações, vídeos de meninas menores de idade depois que o usuário assiste a conteúdos adultos na plataforma. Isso aconteceu “em muitos casos”, mas não em todos, de acordo com o jornal americano.

A questão veio à tona após o impressionante número de visualizações de um vídeo que mostra duas meninas, de cerca de 10 anos, brincando em uma piscina no quintal de sua casa. “O vídeo é inocente, não é grande coisa”, disse a mãe de uma das menores.

Contudo, a cena, carregada por sua própria filha e um amigo que aparece ao lado dela, logo acumulou milhares de visitas chegando em pouco tempo a 400 mil visualizações — um número muito alto para um vídeo sem importância.

Os investigadores responsáveis pelos resultados do The New York Times, descobriram que o sistema automatizado de recomendação do YouTube começou a mostrar o vídeo para os usuários que viram “outros vídeos de crianças pré-adolescentes e parcialmente vestidas”. Em outros momentos, como dissemos no início, eles asseguram que o algoritmo se referia a vídeos semelhantes aos das garotas depois que os usuários tinham visto conteúdo com cunho sexual.

Quando o Times advertiu a empresa que seu sistema estava recomendando vídeos de família para indivíduos aparentemente motivados por interesse sexual em menores, o “YouTube removeu vários, mas deixou muitos outros, incluindo alguns aparentemente enviados por contas falsas”. Algo foi feito em relação ao algoritmo, já que a plataforma parou de recomendar alguns vídeos, como explica o estudo.

O YouTube mudou o algoritmo depois de ser notificado, embora tivesse alegado que a alteração de sua operação foi feita devido a “ajustes de rotina”, e não a uma mudança na política especificamente.

A companhia divulgou essa informação no comunicado que falava sobre atualizações de “esforços para proteger menores e famílias”. Ele apresenta algumas das mudanças realizadas no serviço recentemente e uma referência ao que veio à tona nas últimas horas:

“A maioria dos vídeos com crianças no YouTube, incluindo os mencionados nos relatórios de notícias recentes, não viola as nossas políticas e é publicada de forma inocente: um criador de conteúdo familiar que fornece aconselhamento educacional ou um dos pais compartilhando um momento de orgulho ou felicidade. Porém, tratando-se de crianças, adotamos uma abordagem cautelosa extra para a aplicação da lei e estamos sempre aprimorando nossas proteções”.

Esta investigação vem meses depois da descoberta um grupo de pedófilos que usava o YouTube para consumir de maneira perturbadora vídeos, inocentes a priori, de menores. As ações da companhia, no entanto, ficaram patentes nos comentários desses vídeos — o serviço decidiu fechar as seções de comentários de muitos desses conteúdos.

Colaboração para o Olhar Digital

Redação é colaboração para o olhar digital no Olhar Digital