O Google lançou um enorme conjunto de dados de vídeos de deepfake para tentar ajudar pesquisadores a identificar quando um vídeo foi manipulado através da técnica. A empresa filmou atores em uma variedade de cenas e depois usou métodos de geração de deepfake, publicamente disponíveis, para criar um banco de dados com cerca de 3 mil amostras.
A ideia é que pesquisadores utilizem esse banco para treinar ferramentas de detecção automatizada e torná-las tão eficazes e precisas quanto possível quando se trata de detectar imagens sintetizadas por IA. O Google ainda disse que continuará atualizando seu repertório, visto que as técnicas de deepfake continuam evoluindo rapidamente.
“Adicionaremos a esse conjunto de dados conforme evolução da tecnologia deepfake, e continuaremos a trabalhar com parceiros nesse espaço. Acreditamos firmemente em apoiar uma comunidade de pesquisa próspera para diminuir possíveis danos causados por uso indevido de mídia sintética, e o lançamento de hoje, do nosso conjunto de dados deepfake no benchmark FaceForensics, é um passo importante nessa direção”, disse a empresa em anúncio.
Os vídeos deepfakes tornam-se cada vez mais uma preocupação pois estão ficando mais reais e difíceis de diferenciar dos originais. Embora existam usos interessantes da tecnologia, como ver Will Smith no papel de Neo em Matrix, muitas vezes ela é utilizada com más intenções. Podemos pensar em deepfakes que colocam rostos de pessoas comuns em vídeos pornô ou que produzem fake news.
Além do Google, o Facebook e a Microsoft participam na criação de um conjunto de ferramentas de código aberto, que permitirá que empresas, governo, mídia e organizações apurem se um vídeo foi falsificado com deepfake. A rede social, inclusive, planeja lançar um banco de dados semelhante ao do Google. Quanto mais amostras melhor.
Via: Engadget