Imagens ‘fantasma’ podem causar acidentes com carros autônomos; entenda

Especialistas em segurança digital de Israel inseriram imagens de faróis vermelhos em um outdoor digital, fazendo com que carros sem motorista acionassem os freios: prática pode causar acidentes
Rafael Arbulu13/10/2020 15h21, atualizada em 13/10/2020 15h30

20200124024824

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Desde que os carros autônomos entraram em fase de testes, uma das principais preocupações dos especialistas é como proteger o veículo de tentativas de invasão por parte de hackers. O problema é que, segundo um teste executado por pesquisadores de segurança digital de Israel, você não precisa hackear “o carro” para fazê-lo apresentar problemas.

De acordo com pesquisadores da Universidade Ben Gurion, automóveis sem motoristas foram forçados a frear bruscamente após um teste envolvendo a imagem de um farol vermelho ser exibida em um outdoor digital – uma prática que, disseram os especialistas à Wired, poderia trazer não apenas engarrafamentos, mas também acidentes graves.

Reprodução

Um Model X, da Tesla: veículo que conta com sistema de direção autônoma foi enganado por pesquisadores de segurança em Israel. Foto: Matthew Lamb, CC-BY-SA 2.0

“O invasor só precisa mostrar a imagem de algo na pista ou inserir alguns quadros em um outdoor digital, e o carro vai acionar os freios ou, possivelmente, desviar, e isso é perigoso”, disse Yisroel Mirsky, um dos especialistas envolvidos no teste. “O piloto ou passageiro não vai nem perceber. Então o carro de alguém vai simplesmente reagir, e as pessoas não vão entender o motivo”.

O objetivo inicial do estudo era o de inserir imagens na pista para fazer com que carros autônomos reagissem com uma ação indevida. Entretanto, conforme o teste evoluía, eles perceberam que seria mais conveniente acessar (ou invadir) um outdoor digital e reproduzir uma imagem de um farol vermelho com um ou dois segundos. No teste, eles conseguiram enganar um automóvel autônomo da Tesla que rodava a versão mais recente do software de direção autônoma da marca, o Autopilot.

O problema é que esse tipo de ataque, se feito em condições reais e por pessoas maliciosas, traria consequências graves, mas deixaria pouco no que tange ao rastro dos eventuais culpados: “Outros métodos deixam evidências forenses e exigem uma preparação mais complicada”, disse outro pesquisador da universidade, Ben Nassi. “Ataques fantasma como esse podem ser feitos remotamente, e não exigem nenhum tipo de conhecimento técnico”.

Fonte: Wired

Colaboração para o Olhar Digital

Rafael Arbulu é colaboração para o olhar digital no Olhar Digital