Se as fake News se transformaram numa praga tóxica, subproduto das redes sociais, um perigo ainda maior se aproxima. Veja este vídeo…
Pois é, pode parecer difícil de acreditar, mas quem está falando isso aí não é o ex-presidente Barack Obama. Trata-se desse ator. A imagem dele foi capturada por uma câmera comum. O vídeo passou por um sistema de inteligência artificial que transformou as expressões do ator no rosto de Barack Obama. A voz foi tratada por um software que é capaz de transformar a voz de praticamente qualquer um em outra voz. O resultado é incrível… e assustador.
Essa história de criar vídeos que não são reais começou no cinema. Quando o filme Forrest Gump chegou, todo mundo ficou impressionado com a perfeição do encaixe do personagem de Tom Hanks nas cenas históricas….
Mais recentemente, num dos episódios de Guerra nas Estrelas, a princesa Léia foi recriada à perfeição. O mesmo foi feito com o ator Peter Cushing, que interpretava um dos generais do Império.
Mas, criar essas ilusões custou milhões de dólares ao estúdio de cinema. No caso do vídeo do Barack Obama que abriu essa matéria, o custo foi quase nada. Ele foi feito usando um aplicativo de computador bem simples. O xis da questão é que o aplicativo está conectado a um sistema de inteligência artificial. Mais impressionante, é que enquanto os estúdios de cinema levaram meses para reproduzir os personagens, no caso do aplicativo, a simulação é quase em tempo real…. Veja este exemplo do filme de Mel Gibson. Na janela do lado, outro ator aparece como o protagonista. Tudo foi feito com inteligência artificial, por meio de um mero aplicativo para computador…. Esses vídeos criados pela inteligência artificial foram batizados de DEEPFAKES.
Os primeiros deepfakes surgiram em 2017, quando um sujeito resolveu criar vídeos pornográficos usando rostos de celebridades no lugar das atrizes, mas isso foi só o início dessa onda. Em seguida, quando o criador lançou um aplicativo que automatizava a criação desse tipo de material enganoso, a moda pegou. Uma série de vídeos falsos começou a pipocar na internet; alguns engraçados, outros simplesmente assustadores. Entre os mais populares estão as dezenas com o rosto do ator Nicolas Cage e também alguns do ex-presidente norte-americano Barack Obama.
O que esses programas fazem é examinar um vídeo original quadro a quadro e então, usando inteligência artificial, aprender o tamanho, a forma e os movimentos do indivíduo para que possa ser imitado fielmente em outro vídeo. A maioria dos deepfakes se limitou a trocar os rostos das pessoas. Mas com recursos avançado, imitam não só a posição da cabeça, mas também expressões e todos os movimentos das sobrancelhas e dos lábios. Quanto mais variáveis e informações forem captadas dos vídeos reais, mais essas redes aprender e se tornam mais eficientes.
A gente foi conversar com um dos maiores – senão o maior – perito em fonética forense do Brasil. Mostramos esses vídeos para Ricardo Molina, especialista em análise de áudio e vídeo em busca de edições falsas ou imperfeições que indiquem uma montagem. No Brasil, segundo ele, ainda não existe nada tão sofisticado que se tenha conhecimento… por aqui, quando aparece, a falsificação ainda é grosseira.
Esta foi uma das raras vezes que Molina se deparou com falsificação em vídeo. Mas o perito já perdeu as contas de quantas vezes precisou analisar horas de gravações em áudio. Mesmo com softwares bastante avançados que simulam quase à perfeição a voz de alguém, ele afirma que é muito mais difícil identificar uma alteração do que em um vídeo.
Mas, nos Estados Unidos, os deepfakes já estão tão perfeitos que os pesquisadores tiveram que também recorrer à inteligência artificial para saber eles são reais ou não. Neste material produzido pela Universidade de Stanford, uma das técnicas de detecção leva em conta o fluxo sanguíneo no rosto da pessoa. Olha só. Num deepfake, não há circulação de sangue. Enquanto num rosto real, a inteligência artificial consegue perceber a movimentação nos vasos sanguíneos.
A verdade é que a partir do momento em que realmente não pudermos mais acreditar nos nossos olhos, estaremos em maus lençóis. Já imaginou a quantidade de mentiras e trapaças que pode se espalhar pelas redes sociais? Se as pessoas já acreditam hoje em mensagens em texto, a chance delas serem enganadas por um vídeo é muito maior – afinal, todo nós crescemos acreditando que se há um registro em vídeo, é por que ele é real…. pois é, já não dá para pensar assim…