O Facebook não passa por uma boa fase: o número de usuários não cresce mais tão rapidamente, o valor de mercado da empresa despencou como nunca na história dos Estados Unidos e escândalos de vazamento de dados e fake news se amontoam.
Em meio a tudo isso, o Facebook vem tentando limpar a sua imagem oferecendo um pouco mais de transparência a respeito dos seus processos internos. Nesta semana, um longo texto foi publicado no blog oficial da empresa detalhando o trabalho dos seus moderadores de conteúdo.
Moderadores de conteúdo são profissionais contratados ou terceirizados pelo Facebook que atuam revisando todo tipo de post denunciado por desrespeitar os termos de uso da rede, seja pornografia, discurso de ódio, assédio moral ou sexual e muito mais.
O Facebook emprega atualmente 7.500 moderadores, número que deve crescer para 20 mil até o fim do ano, segundo Ellen Silver, vice-presidente de operações da empresa. Neste total estão inclusos funcionários, prestadores de serviço e terceirizados no mundo todo.
Segundo a empresa, essa equipe global se divide de forma a trabalhar 24 horas por dia em turnos que cobrem todos os fusos horários e com suporte a posts em mais de 50 idiomas. Fluência no idioma dos posts e partilhar da mesma nacionalidade, aliás, são fundamentais para a avaliação do conteúdo denunciado.
“Por exemplo, nós queremos contratar que falam espanhol no México – e não na Espanha – para avaliar denúncias do México, já que, geralmente, é necessário uma pessoa nativa para entender o significado específico de uma palavra ou o clima político no qual uma postagem é compartilhada”, diz Ellen.
Este cuidado com o contexto também é fundamental, segundo o Facebook. Por exemplo: algumas palavras podem ser encaradas como uma ofensa racial, mas também podem ser lidas como uma expressão de empoderamento racial, dependendo de quem diz, quando, onde e por quê. Tudo isto, segundo Ellen, é levado em conta pelos moderadores.
Os profissionais contratados para o trabalho passam por um período de pré-treinamento, depois passam por “aulas práticas” e recebem sessões de reforço regulares. Cada denúncia é analisada por duas pessoas, cuja conclusão é avaliada por um superior, que, por sua vez, também tem suas decisões avaliadas por uma quarta pessoa.
Para completar, o Facebook diz que fornece plano de saúde e acompanhamento psicológico para todos os moderadores – afinal, não é mentalmente saudável ficar olhando fotos de violência e pornografia infantil todo dia. Os profissionais trabalham em salas amplas, bem iluminadas e partilhadas com outras equipes.
“Revisão de conteúdo neste tamanho nunca foi feita antes. Afinal, nunca houve uma plataforma em que tantas pessoas se comunicassem em tantos idiomas diferentes em tantos países e culturas diferentes. Reconhecemos a enormidade deste desafio e a responsabilidade que temos em fazer direito”, completa Ellen.