Carros da Tesla podem ser ‘hackeados’ para trafegar acima do limite

Pequeno adesivo colocado em uma placa pode enganar sistema da MobilEye usado pelos carros da montadora
Luiz Nogueira19/02/2020 12h03, atualizada em 19/02/2020 12h45

20191218023526

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Pesquisadores da McAfee descobriram que é possível enganar veículos Tesla para que eles acelerem acima do limite de velocidade permitido usando o sistema de piloto automático.

A façanha é possível graças a um pequeno adesivo colado a uma placa de limitação de velocidade. Desta forma, o sistema EyeQ3 da MobilEye, usado pelos carros da Tesla para “ler” placas com limite de velocidade e manter o piloto automático dirigindo na limitação, foi enganado facilmente. A câmera do carro leu 85 km/h em vez de 35 km/h.

Durante os testes, foram utilizados um Tesla Model X de 2016 e um Model S do mesmo ano. Ambos apresentaram os mesmos problemas causados pela placa adulterada. A demonstração apresenta um cenário perigoso, em que o aprendizado de máquina (machine learning) pode apresentar um desafio de segurança para aqueles que desejam implementar uma tecnologia semelhante em outros veículos.

Questionada sobre o assunto, a MobilEye afirmou que não vê a ideia de enganar a câmera como um ataque propriamente dito. Para eles, um humano desatento também poderia ser enganado pela placa adulterada. Além disso, eles destacam que, apesar de o sistema ter um papel fundamental no sistema de piloto automático, a câmera não foi projetada para direção autônoma.

“A tecnologia de veículo autônomo não dependerá apenas da detecção, mas também terá a ajuda de várias outras tecnologias e dados, para garantir a confiabilidade das informações recebidas pelos sensores de câmera”, declarou um porta-voz da MobilEye.

À medida que os sistemas autônomos se tornam populares, é muito comum que pessoas duvidem de suas capacidades. Por isso, diversos estudos são realizados todos os anos para atestar que esses sistemas são – ou não – seguros.

Um claro exemplo disso ocorreu em março de 2019, quando pesquisadores conseguiram provar que um sistema médico com aprendizado de máquina foi adulterado para fornecer diagnósticos enganosos.

Via: TechnologyReview

Luiz Nogueira
Editor(a)

Luiz Nogueira é editor(a) no Olhar Digital