Grupo acusa Facebook de pedir que moderadores voltem ao trabalho presencial

Em carta aberta, grupo de moderadores diz que empresa está 'arriscando a vida' de funcionários em meio à pandemia, mas Facebook nega as afirmações
Equipe de Criação Olhar Digital19/11/2020 14h54

20201119114859
Publieditorial

Um grupo de moderadores de conteúdo do Facebook publicou uma carta aberta, onde afirma que a empresa está “arriscando suas vidas” ao pedir-lhes que retornem ao escritório para trabalhar em meio à pandemia. Segundo os reclamantes, funcionários que apresentem atestados médicos são isentos do trabalho presencial, mas o mesmo benefício não é estendido a colaboradores que vivam com pessoas do grupo de risco de contaminação pela Covid-19.

“Em diversos escritórios [do Facebook], múltiplas confirmações da Covid-19 têm ocorrido”, diz trecho da carta. “Colaboradores vêm pedindo à liderança do Facebook e às lideranças de suas empresas terceirizadas, como Accenture e CPL, pela tomada de medidas urgentes para a nossa proteção e valorização de nosso trabalho. Vocês recusaram. Estamos publicando esta carta porque vocês não nos deixam escolha”.

Reprodução

Moderadores do Facebook acusam a empresa de negligência à saúde dos trabalhadores, pedindo que eles voltem aos escritórios em meio à pandemia. Imagem: Oksana Mashenko/Shutterstock

O motivo para o Facebook pedir pelo retorno presencial ao trabalho dos moderadores, segundo os próprios, é de que a rede social entende que a inteligência artificial que trabalha na filtragem de conteúdo – e funciona em conjunto com o trabalho humano – ainda está “a anos” de ser um mecanismo ideal.

“Sem informar ao público, o Facebook conduziu um experimento massivo de moderação automatizada de conteúdo. A gestão disse aos moderadores que não mais veríamos certas variações de conteúdo tóxico aparecendo na ferramenta de revisão que utilizamos – como violência explícita ou abuso infantil, por exemplo”, diz outra parte da carta.

Segundo os autores, “a inteligência artificial [IA] não estava capacitada para o trabalho. Discursos importantes foram engolidos pelo filtro do Facebook – e conteúdo de risco, como automutilação, permaneceram publicados. A lição é clara. Os algoritmos do Facebook estão há anos de atingirem o nível necessário de sofisticação para moderar conteúdo automaticamente”.

Reprodução

Segundo carta publicada por grupo de moderação, o Facebook não estende a eles os mesmos benefícios de funcionários plenos, expondo-os a problemas psicológicos pela revisão de conteúdos violentos na rede social. Foto: Chinnapong/Shutterstock

A carta divulgada também traz acusações de má gestão de saúde que vem de antes da pandemia do novo coronavírus (Sars-Cov-2). Moderadores, segundo o documento, não têm acesso a tratamento psicológico empresarial, além de serem contratados como funcionários temporários ou terceirizados, consequentemente recebendo menos benefícios do que empregados diretos.

As exigências dos assinantes da carta, inclusive, bate nesta tecla: eles querem que o Facebook contrate empresas terceirizadas que paguem a eles tratamento psicológico conforme necessidade, além de apresentarem maior flexibilidade quanto ao trabalho remoto e acesso a plano de saúde funcional.

Facebook responde

Em um comunicado enviado à imprensa norte-americana por um porta-voz da empresa, o Facebook respondeu às acusações dizendo que algumas informações da carta não condizem com a realidade.

“Nós apreciamos o trabalho valoroso que nossos moderadores de conteúdo fazem e priorizamos sua saúde e segurança. Ainda que acreditemos na condução de um diálogo interno e aberto, essas discussões devem ser, antes de tudo, honestas”, disse o porta-voz.

“A maior parte dos nossos 15 mil moderadores globais de conteúdo vem trabalhando de casa e assim continuarão pela duração da pandemia. Todos eles têm acesso a plano de saúde e recursos confidenciais de bem-estar desde o primeiro dia de suas contratações, e o Facebook foi além de qualquer recomendação de saúde a fim de manter nossas estruturas seguras para qualquer trabalho em escritório local”, completou.

Reprodução

Desde o começo da pandemia, o Facebook tem dependido mais de sistemas automatizados de moderação de conteúdo, mas funcionários da empresa dizem que ferramenta ainda está longe do ideal. Imagem: karanik yimpat/Shutterstock

Desde o começo da pandemia, em março, o Facebook ressaltou uma dependência maior em sistemas automatizados de moderação, dispensando o trabalho presencial de funcionários cujas funções não exigissem a presença física em suas sedes. Isso porque, segundo a própria empresa, muitos de seus moderadores humanos não tinham a capacidade de trabalhar remotamente.

Por isso, diversos problemas acabaram acontecendo com a rede social fundada por Mark Zuckerberg: de tempos em tempos, o Facebook acabou deixando passar diversos anúncios e postagens que claramente violaram seus termos e condições de uso. Diversos canais de imprensa afirmaram rodar testes onde conseguiram comprar impulsionamento publicitário para informações falsas, como recomendar a ingestão de alvejante para combater o novo coronavírus. As peças publicitárias foram removidas antes de serem publicadas, evidentemente, mas o fato de elas terem sido adquiridas sem que a IA da plataforma as identificasse evidenciou o problema.

Piorou a situação quando, em maio, o Facebook teve que pagar uma multa de US$ 52 milhões (R$ 277 milhões na conversão direta) como acordo em uma ação de classe, onde os reclamantes afirmaram ter desenvolvido transtorno de estresse pós-traumático (TEPT) devido ao seu trabalho na moderação de conteúdo graficamente violento. Pelo que a carta acima indica, o Facebook ainda parece apresentar dificuldades pelo apreço à saúde mental de seus funcionários.

Até o momento, nenhuma posição quanto às exigências dos moderadores foi divulgada.

Fonte: Engadget (1) (2)