Nos últimos anos, a ascensão da qualidade dos produtos gerados por Inteligência Artificial está preocupando muita gente. Não é por menos que a nova reportagem da agência de notícias Associated Press (AP) nos assusta por trazer uma evidência real para algo que até o momento era meio abstrato.

A AP diz que encontrou evidências de que um aparente espião teria usado inteligência artificial (IA) para gerar uma imagem de perfil no LinkedIn, com o objetivo de enganar os contatos nesta rede social. A publicação diz que o perfil falso teria o nome Katie Jones e conectou-se com vários especialistas em política de Washington. Estes incluem um assessor de senador, um vice-secretário de Estado adjunto e Paul Winfree, um economista considerado para o cargo no Federal Reserve (o Banco Central norte-americano).

Reprodução

publicidade

Foto: Associated Press

A parte mais assustadora disso, talvez, seja constatar que até pessoas em altos cargos e com conhecimento mais avançado estão sujeitas a caírem em golpes simples, como aceitar uma solicitação de amizade de um espião. A verdade é que usar o LinkedIn para esse tipo de espionagem de baixo risco é comum, principalmente com os EUA e a Europa particularmente preocupados com operações em grande escala.

“Em vez de despachar espiões para uma garagem nos EUA para recrutar um alvo, é mais eficiente sentar atrás de um computador em Xangai e enviar pedidos de amizade para 30.000 alvos”, disse William Evanina, diretor do Centro Nacional de Contra-Inteligência e Segurança dos Estados Unidos à AP.

Mas o que torna o caso de “Katie Jones” incomum é o uso de um método de IA conhecido como rede geradora de adversários (ou GAN) para criar a imagem do perfil falso. Usar GANs para criar rostos falsos se tornou incrivelmente fácil nos últimos anos. Embora os espiões que usam o LinkedIn possam facilmente pegar imagens de estoque ou fotos de mídia social aleatórias para criar sua conta, usar uma foto feita pela IA adiciona uma camada extra de proteção contra rastreamento.

E, embora essas falsificações pareçam convincentes, elas podem se revelar falsas quando você olha um pouco mais de perto. No caso de “Katie Jones”, você pode ver que o rosto é ligeiramente assimétrico com um fundo indistinto. As bordas do cabelo e da orelha também estão embaçadas e há riscos estranhos na face. Vários especialistas com quem a AP falou concluíram que a imagem foi definitivamente criada usando técnicas de aprendizado de máquina.

Óbvio que a revelação nos deixa um pouco preocupados com o futuro uso da inteligência artificial, mas esse caso parece ser mais culpa da desatenção do que da tecnologia. Como Paul Winfree, o economista e aspirante a membro do conselho do Federal Reserve disse à AP : “Eu sou provavelmente o pior usuário do LinkedIn na história do LinkedIn … Eu literalmente aceito todos os pedidos de amizade que recebo”.

Via: The Verge