YouTube explica processo de remoção de conteúdo da plataforma

Empresa divulgou conjunto de normas que são seguidas para detecção e remoção de conteúdo nocivo e que viola suas diretrizes
Luiz Nogueira04/09/2019 16h43

20190831123843

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Nos últimos anos, grandes companhias estão em processo de atualização de seus códigos de conduta com o objetivo de tornar suas plataformas locais mais seguros. O YouTube, por exemplo, colocou em prática um conjunto de novas medidas que removeram diversos vídeos e canais que apresentavam conteúdo considerado nocivo e que continham material com temática odioso.

Reprodução

Para exemplificar como esse processo é realizado, o YouTube divulgou, na última terça-feira (3), quais são as quatro medidas adotadas para que a plataforma seja aprimorada aos usuários. As quatro medidas são: remover, elevar, recompensar e reduzir. Por enquanto, o site de compartilhamento de vídeos divulgou a explicação do primeiro princípio, “remover”, os outros serão explicados nas próximas semanas.

Em sua definição, o princípio de “remover” acontece quando a plataforma identifica e remove conteúdo que viola suas normas de uso. A empresa informa que esse procedimento é realizado desde o começo do YouTube, mas que eles estão investindo mais nessa ação nos últimos anos.

Verificação de conteúdo

Antes de realizar a remoção, o YouTube se certifica de que a decisão é correta. Para isso, o site possui uma equipe especializada designada especialmente para realizar este procedimento. Eles ressaltam que sempre procuram preservar a liberdade de expressão de seus usuários.

Quando se trata de discurso de ódio, a empresa explica que trabalhou meses desenvolvendo os treinamentos necessários para que a identificação dessa prática fosse eficaz. As equipes que realizam essa remoção, fazem o procedimento com base nas diretrizes e no que foi apontado pelo sistema com base no aprendizado de máquina.

Segundo dados divulgados pela plataforma, estima-se que, entre abril e junho deste ano, mais de 100 mil vídeos foram removidos por promoverem discurso de ódio. Além disso, mais de 17 mil canais foram tirados do ar e 500 milhões de comentários deletados.

Tecnologia de detecção

O YouTube trabalha desde 2017 na colaboração entre equipes humanas e a tecnologia para que conteúdos impróprios sejam sinalizados. A companhia explica que usa bancos de dados para aumentar as chances de identificação de conteúdo nocivo ainda durante seu upload.

Reprodução

O aprendizado de máquina também é bastante utilizado, ainda que seus apontamentos tenham de ser analisados por humanos, já que, em alguns casos, as afirmações dependam do contexto de uma situação.

Como forma de provar a eficácia de seu sistema, o YouTube informou que, dos nove milhões de vídeos removidos neste ano, 87% foram sinalizados por seus sistemas. O grande objetivo do YouTube é o de garantir que esse tipo de conteúdo seja removido antes que seja visualizado e compartilhado por milhares de pessoas. No primeiro semestre deste ano, mais de 80% do conteúdo removido, e que violava as diretrizes do site, foi feito antes da publicação.

Fonte: YouTube Blog

Luiz Nogueira
Editor(a)

Luiz Nogueira é editor(a) no Olhar Digital