Tesla é acusada de não consertar um bug no seu piloto automático e que teria matado duas pessoas

Investigadores têm dificuldades em determinar culpados, porque empresa reitera que sistema não é autônomo e exige que motoristas se responsabilizem pela condução
Redação17/05/2019 22h25, atualizada em 17/05/2019 23h30

20190503081401

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

No primeiro dia de março, Jeremy Banner, 50 anos, estava dirigindo pelas ruas de Williston, Flórida, seu Model 3 da Tesla com o Autopilot ativado quando colidiu com um caminhão trator. O acidente arrancou fora todo o teto do automóvel e foi fatal para Banner. O Conselho Nacional de Segurança no Trânsito dos Estados Unidos (NTSB, na sigla em inglês) divulgou nesta quinta-feira (16) um relatório confirmando que o software de piloto automático estava ligado.

Três anos atrás, em 7 de maio de 2016, um proprietário de um Model S, chamado Joshua Brown, 40, foi morto em um acidente sob circunstâncias similares, também com sistema de assistência ao motorista do veículo ativado.

A Tesla classifica o Autopilot como um dos sistemas atuais mais seguros na estrada, mas as mortes de Brown e Banner contestam a validade da alegação e sugerem que a montadora negligenciou a revisão e aprimoramento de uma suposta grande fraqueza na sua tecnologia.

Entenda os problemas com o Autopilot

Existem algumas grandes diferenças entre os dois acidentes envolvendo o piloto automático da Tesla. Os carros de Brown e de Banner eram equipados com sistemas de assistência ao motorista completamente diferentes. Enquanto o software do Model S foi baseado em uma tecnologia produzida por uma startup israelense (Mobileye), o Model 3 tinha uma versão de segunda geração do Autopilot, desenvolvido internamente pela montadora.

Isso quer dizer que, ao produzir seu software próprio, a Tesla não aprimorou o sensor do piloto automático quanto aos casos externos e circunstâncias incomuns. A empresa, inclusive, continua responsabilizando motoristas pela direção consciente, ressaltando que o sistema não permite condução automática autônoma e independente.

Com isso, investigadores precisam avaliar, por um lado, as questões técnicas da máquina, enquanto, por outro, considerar se o motorista estava ou não com as mãos no volante antes de determinar culpados. No passado, o CEO da empresa, Elon Musk, culpou o “excesso de confiança” do condutor pelos acidentes envolvendo o Autopilot.

Por conta dessa dualidade, a interpretação das causas dos acidentes ainda é subjetiva. Em 2016, por exemplo, a Administração Nacional de Segurança no Trânsito nas Estradas dos EUA (NHTSA) exonerou a Tesla de culpa depois de ter descoberto que Brown não estava prestando atenção à estrada no momento do acidente. Antes disso, a empresa de Musk havia admitido que a câmera do Autopilot não reconheceu o caminhão.

No caso de Banner, a NTSB revelou que o motorista acionou o piloto automático cerca de dez segundos antes da colisão e, a partir de menos de oito segundos antes do acidente até o momento do impacto, o veículo não detectou as mãos do condutor no volante. Autoridades ainda não tomaram uma decisão sobre o responsável pelo acidente.

Especialistas em segurança de automóveis notam que os sistemas como o piloto automático dependem principalmente do radar da máquina para evitar colidir com outros veículos. O instrumento, porém, tem capacidade limitada: é bom em detectar objetos em movimento, mas não parados, e tem dificuldade em detectar automóveis na estrada que não se movem na direção do carro.

Por conta dessas falhas técnicas, o software do Autopilot precisa conseguir gerar “falsos positivos” para evitar, por exemplo, que o radar “veja” um viaduto e relate isso como um obstáculo, fazendo com que o veículo pise nos freios.

Também é preciso levar em conta as limitações da tecnologia de Inteligência Artificial (IA) aplicada no sistema. Os algoritmos que usam a câmera precisam ser treinados para detectar caminhões em movimento perpendiculares à direção do veículo, uma circunstância incomum que o software deve estar preparado para lidar com segurança. Se os sensores “vêem” o que eles nunca ou raramente viram antes, eles não sabem que respostas gerar.

A Tesla ainda não explicou detalhadamente como pretende consertar as falhas do Autopilot. A cada trimestre, a empresa lança um relatório sobre a segurança do piloto automático, mas ele é pouco detalhado. Isso prejudica as pesquisas sobre a eficácia do sistema, já que não há dados concretos que permitam uma análise aprofundada. Apenas a montadora entende completamente a lógica e código fonte do Autopilot – e guarda com cuidado esses segredos.

“Precisamos de dados detalhados de exposição relacionados a quando, onde e quais condições os motoristas estão ativando o piloto automático para que possamos começar a quantificar melhor o risco em relação a outros veículos semelhantes”, disse ao The Verge o pesquisador do Centro de Transporte e Logística do Instituto de Tecnologia de Massachusetts, Bryan Reimer.

A última colisão fatal e seus desdobramentos acontecem quando Musk está divulgando os planos da Tesla de implantar uma frota de táxis autônomos em 2020. Mas, o trabalho da empresa é inútil se reguladores federais decidirem reprimir o Autopilot. O pedido constante de defensores do consumidor nos EUA para que o governo norte-americano abra uma investigação sobre o software do piloto automático se soma ao obstáculo da montadora.

“Ou o piloto automático não pode ver o lado mais largo de um veículo de 18 rodas, ou não pode reagir de forma segura a ele”, disse o vice-presidente jurídico da organização norte-americana de direitos do consumidor Consumer Reports, David Friedman. “Esse sistema não pode navegar de forma confiável por conta própria e não consegue manter o motorista envolvido exatamente quando é mais necessário”, continuou por meio de nota à imprensa.

Via: The Verge

Colaboração para o Olhar Digital

Redação é colaboração para o olhar digital no Olhar Digital