Deepfake: 96% dos vídeos alterados são dedicados a pornografia

E, em 99% das ocorrências, as imagens usadas são de famosas
Roseli Andrion08/10/2019 17h36, atualizada em 08/10/2019 17h44

20190610103915

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Os deepfakes surgiram há pouco tempo, mas já existem preocupações de que eles possam afetar até contextos políticos. Uma pesquisa da Deeptrace, entretanto, mostra que boa parte deles se dedica a algo mais mundano: a pornografia.

A empresa analisou 14,678 deepfakes disponíveis online e descobriu que poucos se dedicam a manipular eleições. Por enquanto, o conceito tem sido usado extensivamente para inserir atrizes e cantoras em cenas picantes.

O levantamento aponta que 96% dos vídeos alterados estão na categoria de “pornografia não-consensual” — ou seja, os criadores trocam o rosto de uma atriz pornô pelo de outra mulher. Em geral, os alvos são celebridades: a pesquisa da Deeptrace mostra que, em 99% das ocorrências, são usadas imagens de famosas.

Segundo a Deeptrace, existe uma rede de sites que hospedam esses clipes — e ganham dinheiro com isso. “Todos esses endereços têm anúncios” explica Henry Ajder, que liderou o estudo. “Isso quer dizer que não vão desaparecer logo.”

Colaboração para o Olhar Digital

Roseli Andrion é colaboração para o olhar digital no Olhar Digital