Facebook aposta em IA como novo recurso de moderação de conteúdo

Sistema utiliza um algoritmo inteligente capaz de detectar automaticamente postagens que violam as regras da rede social
Equipe de Criação Olhar Digital16/11/2020 19h42

20201030012341
Publieditorial

Em busca de novas soluções voltadas para a automação do gerenciamento de dados compartilhados na rede social, o Facebook decidiu investir em uma nova ferramenta proprietária baseada em inteligência artificial. O recurso será direcionado para a moderação de conteúdo que esteja em desacordo com alguma diretriz da empresa.

Postagens que não cumprem as regras, ou que incluam discursos de ódio ou apologia a violência, serão detectadas automaticamente por novos filtros inteligentes. Em alguns casos, a promessa é de que o recurso delete o conteúdo indesejado e se encarregue de bloquear o acesso à conta responsável pela disseminação de posts impróprios.

A companhia possui uma equipe composta por milhares de pessoas responsáveis justamente pela filtragem manual de conteúdo. São 15 mil empregados dedicados para detecção de postagens suspeitas ao redor do mundo. Em casos de violação de regras, são eles que decidem se determinado conteúdo está ou não de acordo com as normas do Facebook.

Mesmo com a disponibilidade do gerenciamento inteligente, o objetivo da empresa continua sendo lidar com esse tipo de post o mais rápido possível, utilizando os filtros baseados em inteligência artificial como verdadeiros aliados do time de moderadores.

 Imagem: BigNazik/ShutterstockNovos critérios de triagem de dados vão priorizar a detecção de postagens suspeitas. Imagem: BigNazik/Shutterstock

Em busca de formas para dividir melhor o conteúdo denunciado diariamente na rede, o Facebook estabeleceu alguns critérios. Um deles é o potencial de viralização de um determinado conteúdo, além de sua severidade e, por fim, a simples possibilidade de tal postagem estar em desacordo com as diretrizes da empresa.

Apesar de ainda não estar claro como será avaliada a gravidade de cada caso, a meta, segundo o Facebook, é lidar quanto antes com conteúdo tóxico ou traumático. Se uma postagem que dissemina discurso de ódio é compartilhada por mais usuários, por exemplo, seu potencial de viralização “acenderá” um alerta automático no sistema inteligente da rede, facilitando o gerenciamento desse conteúdo por parte dos moderadores.

Como o algoritmo funciona?

O novo sistema utiliza um algoritmo inteligente capaz de avaliar se uma postagem é válida ou não, de acordo com um conjunto variado de elementos, incluindo desde o texto até as imagens atreladas ao conteúdo. O uso de determinadas palavras, e até mesmo a escrita em letras maiúsculas, já são fatores que podem disparar a suspeita do novo recurso de gerenciamento de dados da rede.

Segundo Chris Palow, um dos engenheiros de software do Facebook, o uso de inteligência artificial não busca substituir a capacidade humana de julgar conteúdos. Por isso, a equipe de moderadores ainda é de vital importância para lidar com temas relevantes, como o compartilhamento de fake news, postagens ofensivas ou conteúdo relacionado à prática de bullying: “O sistema interliga a IA e os moderadores humanos para evitar erros.”

Por fim, o profissional ressalta que o sistema automatizado só funciona sem supervisão humana quando consegue detectar conteúdo suspeito da mesma forma que os moderadores. A meta, segundo o especialista de software, é continuar incluindo de forma gradual mais funcionalidades relacionadas a inteligência artificial no sistema de triagem de dados do Facebook.

Via: The Verge