Pesquisadores da Universidade de Zheijiang, na China, encontraram uma vulnerabilidade nas assistentes pessoais de celulares e outros equipamentos. Batizado de DolphinAttack, algo como Ataque Golfinho, o golpe consiste em usar comando de voz em frequências ultrassônicas que só podem ser captadas pelos microfones dos aparelhos. A brecha poderia ser usada para ligações ou acessar sites maliciosos, entre outras coisas.

A técnica aplicada pelos pesquisadores é relativamente simples e explora os limites da audição humana. A equipe traduziu a voz humana para frequências acima dos 20 Khz, que só podem ser identificadas pelos microfones dos celulares. Em seguida, o áudio foi tocado próximo ao aparelho da vítima com um celular equipado com um amplificador, um transdutor ultrassônico e uma bateria, conjunto que custa menos do que US$ 3 (cerca de R$ 9,30).

Durante os estudos, os pesquisadores testaram comandos como “Ligue 123-456-7890”, “Abrir dolphinattack.com” e “Abrir a porta de trás”. Isso indica que os hackers poderiam usar a vulnerabilidade para acessar páginas maliciosas, ligar para números estranhos ou até mesmo abrir fechaduras em casas automatizadas.

Para piorar o cenário, a equipe da universidade chinesa descobriu que basicamente nenhum dispositivo com assistentes pessoais, como a Siri, Google Assistente, S Voice e Alexa, está imune a esse tipo de ataque. Até mesmo carros, como o Audi Q3, não impediram o reconhecimento da frequência ultrassônica. O teste foi realizado em 16 aparelhos e em sete sistemas no total.

Por outro lado, há limitações que dificultam o trabalho dos hackers. Para começar, o celular da vítima precisa estar a uma distância máxima de 1,5 a 1,8 metro. Além disso, o usuário precisaria estar muito distraído para não ouvir o som emitido pela Siri ou Google Assistente ao ser ativado e nem tampouco o reconhecimento dos comandos na tela.

Por enquanto, os pesquisadores recomendam que a as fabricantes façam modificações nos microfones dos aparelhos para que esses não aceitem sinais acima de 20 Khz. Outra possibilidade seria cancelar qualquer ordem dada a assistentes pessoais em frequências que não sejam audíveis ao ser humano, conforme publicou o Engadget.