Na cidade de Tampa, na Flórida, em uma instalação da Cognizant, a terceirizada que cuida da moderação do Facebook, trabalhadores são regularmente submetidos a condições traumáticas, insalubres e perigosas.
Os empregados analisam até 200 mensagens no Facebook por dia, descrevendo abuso de animais, abuso sexual, assassinatos e outros atos horríveis. Não é preciso de mais para concluir que suas condições de trabalho não são das melhores. E uma reportagem realizada por Casey Newton, do The Verge, joga luz em como milhares de pessoas passam seus dias expostas ao pior que a internet tem a oferecer.
A matéria descreve um sistema profundamente falho e um ambiente de trabalho que afeta profundamente a saúde mental dos funcionários. “Parte da razão pela qual eu saí foi o quão inseguro me sentia na minha própria casa e na minha própria pele”, disse um funcionário, depois de descrever como era frequentemente importunado por outros trabalhadores da mesma empresa. Ele contou também que começou a carregar uma arma para se proteger.
Um dos moderadores da rede social teve um ataque cardíaco em sua mesa de trabalho, não resistiu e acabou morrendo no hospital — em partes, porque a Cognizant não fornecia desfibriladores no local. No dia seguinte, a gerência recusou-se a contar aos colegas de trabalho do falecido sobre sua morte. Em vez disso, insistiram que tudo estava bem com o funcionário.
Outros colaboradores, quebrando cláusulas do contrato que explicitam a proibição da divulgação de condições de trabalho, relataram que, mesmo quando muito doentes, tinham de cumprir normalmente sua carga horária na empresa. Tirar o dia de folga significava ser demitido. Além disso, afirmaram que o RH (Recursos Humanos) ignorava e debochava de relatos de assédio sexual e ameaças de violência. “Eu acho que o Facebook precisa fechar”, disse funcionário à jornalista.
Houve também casos de empregados que começaram a acreditar no conteúdo conspiratórios ao qual eram expostos. Um moderador mencionou colegas que negam o Holocausto, o tiroteio ocorrido na escola Stoneman Douglas, na cidade de Parkland, na Flórida e até o 11 de setembro.
Além disso, para lidar com seus empregos, muitos admitem usar drogas ou fazer sexo no local de trabalho. “Eu não posso nem te dizer quantas vezes fumei”, disse um funcionário ao The Verge. “É tão triste quando penso nisso (…). Nós descíamos, ficávamos chapados e voltávamos ao trabalho. Isso não é profissional”.
Não surpreendentemente, o sistema não parece funcionar muito bem. Os moderadores são julgados pela precisão de suas decisões de remover as postagens, o que é determinado inteiramente pelo fato de seu gerente ter ou não tomado a mesma decisão e citado a mesma política.
Ambos poderiam estar errados ou um deles poderia estar usando uma versão desatualizada do livro de regras — um problema comum; funcionários da Cognizant disseram ao The Verge como as políticas internas podem ser alteradas várias vezes por dia. Essas mudanças nas diretrizes aparecem em um algoritmo parecido com o Facebook, onde as postagens e as alterações de regras são frequentemente apresentadas fora de ordem, como uma linha do tempo da rede social. “A exatidão é julgada apenas por acordo”, disse um funcionário. “Se eu e o auditor permitirmos [conteúdo sobre] a venda de heroína, a Cognizant estava ‘correta’, porque ambos concordamos” — ou seja, tanto o veredito sobre o conteúdo quanto a avaliação da atuação do moderador são bastante questionáveis – e falhos.
Casey Newton concluiu que plataformas do tamanho do Facebook e o Google tratam seus de moderadores de conteúdo como descartáveis, pois acreditam que a inteligência artificial um dia poderá fazer esse trabalho sujo.
Newton escreve que os moderadores humanos, muitos dos quais são afastados com transtorno de estresse pós-traumático (TEPT), depressão e ansiedade, são “vistos como uma lombada no caminho para um futuro com tecnologia de inteligência artificial na moderação de conteúdo nas redes e na internet em geral”.
Para ler a matéria completa no The Verge, clique aqui (em inglês)