Muitos trabalhos neste mundo têm o potencial de traumatizar o trabalhador, mas na área de tecnologia, nenhum é capaz de fazer tanto estrago psicológico quanto o de moderador de redes sociais, que analisa o conteúdo denunciado pelos usuários da plataforma. São as pessoas que precisam avaliar se as denúncias são válidas, que acabam sendo expostas a todo tipo de material traumatizante.
Em geral, uma rede social de grande porte como o Facebook não conta com muitos funcionários próprios para realizar a função, e se apoiam na terceirização da tarefa para outras empresas. Infelizmente, estas pessoas geralmente são muito mal pagas pelo trabalho; em 2014, um artigo da Wired mostrava que existiam cerca de 100 mil pessoas moderando redes sociais, e que essas pessoas frequentemente ganhavam salários na casa dos US$ 500. Os relatos de desenvolvimento de síndrome de stress pós-traumático são comuns, e os danos psicológicos são profundos.
A eliminação deste posto de trabalho traumatizante é um dos objetivos da pesquisa do Facebook com inteligência artificial. A empresa tem desenvolvido a tecnologia para que ela se torne a primeira linha de defesa contra o conteúdo ofensivo, poupando os humanos de ver uma boa parte do que não deveria ser visto por ninguém, como cenas de violência, estupros, decapitações, pedofilia, pornografia de vingança e racismo.
A inteligência artificial é utilizada em várias aplicações mais próximas do consumidor, como a identificação de rostos em imagens para que as pessoas sejam “tagueadas” automaticamente, o reconhecimento de imagens para que possam ser “lidas” por pessoas cegas, a categorização de vídeos e a criação de legendas traduzidas pela máquina.
No entanto, todos esses recursos também ajudam quem trabalha por trás das cortinas. As máquinas podem analisar todas as imagens enviadas para o servidor antes mesmo que ela seja publicada, o que não só poupa um moderador de ter que ver aquelas imagens, mas também evita que elas sejam publicadas, impedindo-as de chegar aos usuários.
Segundo Joaquin Candela, diretor de engenharia em aprendizado de máquina aplicado no Facebook, hoje já há mais denúncias de imagens ofensivas feitas por algoritmos de IA do que por pessoas. “Quanto mais empurrarmos este número para perto do 100%, menor fotos ofensivas precisam ser vistas por um humano”, ele afirma em entrevista ao TechCrunch.
A proposta também se estende ao texto publicado na rede social. A empresa investe em tecnologia voltada para a compreensão linguística do que é postado. O recurso deve se tornar ainda mais importante agora, que a rede social, junto com outras empresas de tecnologia, adotou uma política mais rígida de exclusão de discurso de ódio, incentivada pela União Europeia.
Mais do que apenas o Facebook, a plataforma também é aproveitada para filtrar o conteúdo nos outros serviços da empresa, como o Instagram e o WhatsApp (que jura que não tem acesso às mensagens trocadas no aplicativo graças à criptografia de ponta-a-ponta). No entanto, a proposta vai além dos muros da companhia, e se estende a outras empresas, mesmo que sejam rivais.
“Nós compartilhamos nossas pesquisas abertamente. Não vemos IA como uma arma secreta para competir com outras companhias”, diz Hussein Mehanna, diretor na área de aprendizado de máquina no Facebook. A empresa frequentemente discute a questão da inteligência artificial com outras gigantes como Netflix, Google, Uber, Twitter, entre outros, e compartilha detalhes de seus projetos na área, que podem ser usados para facilitar a vida de moderadores em outras empresas, que também revelam alguns