Os deepfakes surgiram há pouco tempo, mas já existem preocupações de que eles possam afetar até contextos políticos. Uma pesquisa da Deeptrace, entretanto, mostra que boa parte deles se dedica a algo mais mundano: a pornografia.
A empresa analisou 14,678 deepfakes disponíveis online e descobriu que poucos se dedicam a manipular eleições. Por enquanto, o conceito tem sido usado extensivamente para inserir atrizes e cantoras em cenas picantes.
O levantamento aponta que 96% dos vídeos alterados estão na categoria de “pornografia não-consensual” — ou seja, os criadores trocam o rosto de uma atriz pornô pelo de outra mulher. Em geral, os alvos são celebridades: a pesquisa da Deeptrace mostra que, em 99% das ocorrências, são usadas imagens de famosas.
Segundo a Deeptrace, existe uma rede de sites que hospedam esses clipes — e ganham dinheiro com isso. “Todos esses endereços têm anúncios” explica Henry Ajder, que liderou o estudo. “Isso quer dizer que não vão desaparecer logo.”