Pesquisadores da Universidade da Califórnia em Berkeley revelaram uma falha que afeta os assistentes de voz da Apple, do Google e da Amazon. O estudo, divulgado nesta quinta-feira (10) pelo The New York Times, mostra que Siri, Google Assistente e Alexa podem ser ativados por sons “escondidos” em gravações de músicas, por exemplo – uma brecha que dá a eventuais mal-intencionados a oportunidade de executar ações sem o usuário perceber.

A pesquisa dá sequência aos estudos de alunos da própria UC Berkeley e também das universidades de Princeton, nos EUA, e da Zhejiang, na China. Nos últimos anos, os grupos de pesquisadores já mostraram que é possível enviar, tanto por alto-falantes quanto por vídeos no YouTube, comandos por ruídos brancos para ativar os três assistentes. O novo documento mostra que é possível ir além e incluir os sons no meio de músicas.

Essas ordens, imperceptíveis pelo ouvido humano, podem em tese ser usadas para fazer os assistentes discarem um número, abrirem um site ou até mesmo adicionarem algo à lista de compras do usuário.

Estamos em perigo?

Ao New York Times, Nicholas Carlini, um dos autores da pesquisa, disse que não há nada que indique que “essas técnicas tenham saído do laboratório”, mas que não é impossível que criminosos já saibam como usá-las. O risco, portanto, existe, especialmente se levarmos em conta outro estudo, dessa vez da Ovum, que mostra que a base de assistentes digitais nativos – os alto-falantes vendidos pelas três empresas – deve superar a população humana até 2021.

Esses dispositivos são mais populares nos Estados Unidos, mas o problema pode atingir outros aparelhos que também vêm com assistentes de voz instalados – iPhones e smartphones com Android, por exemplo. Por isso, as duas empresas, que disponibilizam seus assistentes no Brasil, e Amazon, que ainda não trouxe a Alexa para território nacional, fizeram questão de pontuar ao The New York Times que seus assistentes contam com recursos para evitar situações assim.

O Google Assistente, por exemplo, usa a tecnologia de reconhecimento de voz nos celulares para identificar o dono antes de executar alguma ação. Já a Siri praticamente não funciona sem que o iPhone ou o iPad estejam desbloqueados. A Amazon, por sua vez, explicou ao Olhar Digital que tomou medidas para tornar o Echo seguro, como “revisões de segurança rigorosas e criptografia de comunicação entre o Echo, o aplicativo para a Alexa e os servidores da Amazon”. Além disso, vale lembrar que o app da assistente virtual da empresa registra todos os comandos recebidos – o que pode facilitar na hora de identificar eventuais abusos. De toda a forma, as medidas, principalmente no caso dos sistemas de reconhecimento de voz, não são à prova de falhas – e esse pode ser o momento para aprimorá-los.