Solução de IA é aposta de empresas contra o abuso sexual infantil online

Denominada Safer, ferramenta identifica o conteúdo abusivo com mais de 99% de precisão; Flickr, Slack e Vimeo já usam a solução
Fabiana Rolfini31/07/2020 18h44, atualizada em 31/07/2020 18h58

20200731035346

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Materiais de abuso sexual infantil cresceram exponencialmente na web nos últimos anos. Para se ter ideia, em 2019, houve 69,1 milhões de arquivos relatados ao Centro Nacional para Crianças Desaparecidas e Exploradas nos EUA – o triplo dos níveis de 2017 e um aumento de 15.000% nos últimos 15 anos.

Agora uma nova ferramenta baseada em inteligência artificial (IA) é a mais recente aposta de empresas para ajudar a combater este tipo de crime. Chamada Safer, a solução tem o intuito de conter o fluxo de conteúdo abusivo na web, além de encontrar as vítimas e identificar os autores dos abusos.

Segundo a Thorn, organização sem fins lucrativos por trás da Safer, a ferramenta identifica o conteúdo abusivo com mais de 99% de precisão em uma plataforma pesquisando impressões digitais chamadas hashes.

Reprodução

IA ajuda empresas a identificar conteúdo de abuso sexual infantil online. Foto: iStock

Ao serem detectadas, estas hashes comparadas a um conjunto de dados de milhões de imagens e vídeos de material abusivo. Se o conteúdo não tiver sido relatado anteriormente, os algoritmos treinados determinam se é provável que seja um material de abuso infantil (CSAM, na sigla em inglês).

Em seguida, o conteúdo é colocado na fila para revisão pelas equipes de moderação da plataforma e reportado ao Centro Nacional de Crianças Desaparecidas e Exploradas, que adiciona o conteúdo ao seu banco de dados.

Flickr, Slack e Vimeo já usam a solução

A novidade foi criada para empresas que não possuem seus próprios sistemas de filtragem de conteúdo. Entre os primeiros clientes da Safer está o serviço de compartilhamento de fotos Flickr.

A empresa recentemente usou a solução para detectar uma única imagem de abuso em sua plataforma. Uma investigação policial que se seguiu levou à identificação e recuperação de 21 crianças, com idades entre 18 meses e 14 anos. O autor está agora na prisão federal.

No total, já foram retirados da internet 100 mil arquivos CSAM durante a fase beta, para clientes como Imgur, Slack, Medium e Vimeo.

A ferramenta está disponível por enquanto para todas as empresas que operam nos EUA. No próximo ano, o produto deve ser estendido para companhias em outros países. O objetivo final da organização é eliminar este tipo de material da internet aberta.

Via: The Next Web

Fabiana Rolfini é editor(a) no Olhar Digital