Após o atentado em uma mesquita na Nova Zelândia ter sido transmitido através do
Facebook, muito se falou sobre a moderação desse tipo de conteúdo na rede social. E Mark Zuckerberg já havia dito que essa remoção seria feita por inteligência artificial (IA), mas não parece que será assim tão simples.
De acordo ao principal cientista de IA do Facebook, Yann LeCun, este tipo de tecnologia está a anos de distância de ser capaz de fazer esse procedimento sozinha, particularmente, quando se trata de vídeos ao vivo. “Esse problema está muito longe de ser resolvido”, disse LeCun, durante um evento no AI Research Lab do Facebook em Paris. Ele ainda reforçou que a rede social está a anos de distância da moderação de vídeos ao vivo por meio de IA.
Essa questão de exibição de vídeos ao vivo é particularmente urgente em um momento em que os terroristas cometem atrocidades com o objetivo de se tornarem virais. A incapacidade de sistemas automatizados de entender e bloquear esse tipo de conteúdo não é uma novidade para especialistas de IA, e se tornou bastante clara para todos devido aos acontecimentos do tiroteio na Nova Zelândia, mesmo a empresa afirmando que menos de 200 pessoas viram o conteúdo na hora da transmissão.
Os especialistas alertam que os sistemas de IA não são capazes de entender a variedade de nuances desses vídeos. Eles são muito bons em remover conteúdos que já foram identificados como indesejados, mas realizar a identificação por si só é um problema.
Uma das causas disso, e que foi observada por LeCun, foi que há uma falta de dados para treinamento. “Felizmente, não temos muitos exemplos de pessoas reais atirando em outras pessoas”, disse o cientista. É possível treinar sistemas para reconhecer a violência usando imagens de filmes, acrescentou ele, mas o conteúdo de violência simulada seria removido junto com a realidade.
Em vez disso, diversas empresas como o Facebook estão se concentrando no uso de sistemas automatizados como assistentes de moderados humanos. A IA sinaliza o conteúdo perturbador, e os humanos o examinam manualmente.
Via: The Verge