Nos últimos anos, grandes companhias estão em processo de atualização de seus códigos de conduta com o objetivo de tornar suas plataformas locais mais seguros. O YouTube, por exemplo, colocou em prática um conjunto de novas medidas que removeram diversos vídeos e canais que apresentavam conteúdo considerado nocivo e que continham material com temática odioso.
Para exemplificar como esse processo é realizado, o YouTube divulgou, na última terça-feira (3), quais são as quatro medidas adotadas para que a plataforma seja aprimorada aos usuários. As quatro medidas são: remover, elevar, recompensar e reduzir. Por enquanto, o site de compartilhamento de vídeos divulgou a explicação do primeiro princípio, “remover”, os outros serão explicados nas próximas semanas.
Em sua definição, o princípio de “remover” acontece quando a plataforma identifica e remove conteúdo que viola suas normas de uso. A empresa informa que esse procedimento é realizado desde o começo do YouTube, mas que eles estão investindo mais nessa ação nos últimos anos.
Verificação de conteúdo
Antes de realizar a remoção, o YouTube se certifica de que a decisão é correta. Para isso, o site possui uma equipe especializada designada especialmente para realizar este procedimento. Eles ressaltam que sempre procuram preservar a liberdade de expressão de seus usuários.
Quando se trata de discurso de ódio, a empresa explica que trabalhou meses desenvolvendo os treinamentos necessários para que a identificação dessa prática fosse eficaz. As equipes que realizam essa remoção, fazem o procedimento com base nas diretrizes e no que foi apontado pelo sistema com base no aprendizado de máquina.
Segundo dados divulgados pela plataforma, estima-se que, entre abril e junho deste ano, mais de 100 mil vídeos foram removidos por promoverem discurso de ódio. Além disso, mais de 17 mil canais foram tirados do ar e 500 milhões de comentários deletados.
Tecnologia de detecção
O YouTube trabalha desde 2017 na colaboração entre equipes humanas e a tecnologia para que conteúdos impróprios sejam sinalizados. A companhia explica que usa bancos de dados para aumentar as chances de identificação de conteúdo nocivo ainda durante seu upload.
O aprendizado de máquina também é bastante utilizado, ainda que seus apontamentos tenham de ser analisados por humanos, já que, em alguns casos, as afirmações dependam do contexto de uma situação.
Como forma de provar a eficácia de seu sistema, o YouTube informou que, dos nove milhões de vídeos removidos neste ano, 87% foram sinalizados por seus sistemas. O grande objetivo do YouTube é o de garantir que esse tipo de conteúdo seja removido antes que seja visualizado e compartilhado por milhares de pessoas. No primeiro semestre deste ano, mais de 80% do conteúdo removido, e que violava as diretrizes do site, foi feito antes da publicação.
Fonte: YouTube Blog