O caso mais recente se deu na Carolina do Norte, em março, quando um Tesla no piloto automático não conseguiu desacelerar e atingiu um adolescente que descia de um ônibus escolar, afirma reportagem do The Washington Post

Nos últimos anos, ocorreram pelo menos oito acidentes fatais ou graves envolvendo o uso do Tesla Autopilot em estradas onde o software de assistência ao motorista da Tesla não poderia operar de forma confiável. O cálculo foi feito pelo The Washington Post com base em dois bancos de dados federais, registros legais e outros documentos públicos.

O primeiro caso aconteceu em 2016, quando um veículo da montadora de Elon Musk passou por baixo de um caminhão em uma rota na Flórida e deixou uma vítima fatal. O caso mais recente se deu na Carolina do Norte, em março, quando um Tesla no piloto automático não conseguiu desacelerar e atingiu um adolescente que descia de um ônibus escolar.

Segundo reportagem do The Post, em manuais do usuário, documentos legais e comunicações com reguladores federais, a fabricante reconheceu que o Autosteer, o principal recurso do Autopilot, é “destinado ao uso em rodovias de acesso controlado” com “uma divisória central, marcações de faixa claras e sem tráfego cruzado”.

A empresa também alerta os motoristas que a tecnologia pode falhar nas estradas se houver colinas ou curvas acentuadas. Apesar disso, nenhuma medida mais concreta foi tomada para evitar acidentes, afirma a reportagem.

Nem mesmo os reguladores federais o fizeram, segundo o Post. Após o acidente de 2016, o Conselho Nacional de Segurança nos Transportes (NTSB, na sigla em inglês), que não tem autoridade para estabelecer normas, pediu limites sobre onde o piloto automático poderia ser ativado. Quem poderia resolver isso seria a Administração Nacional de Segurança no Trânsito Rodoviário (NHTSA, também na sigla em inglês), mas esta não tomou providências.

Em uma entrevista concedida em outubro, Jennifer Homendy, presidente do NTSB, disse que o acidente de 2016 deveria ter estimulado a NHTSA a criar regras aplicáveis. A inação, Homendy acrescentou, reflete “uma verdadeira falha do sistema”.

“Se o fabricante não leva a segurança a sério, cabe ao governo federal garantir que eles defendam os outros para garantir a segurança. Mas a segurança não parece ser a prioridade quando se trata da Tesla”, enfatizou.

Ao The Post, a NHTSA relatou que “sempre acolhe com satisfação as contribuições do NTSB e as analisa cuidadosamente – especialmente quando considera possíveis ações regulatórias”.

A agência comentou também que seria muito complexo e consumiria muitos recursos verificar se sistemas como o Tesla Autopilot são usados dentro das condições para as quais foram projetados, e isso potencialmente não resolveria o problema.

Críticos pontuam que, embora a NHTSA tenha várias investigações em andamento sobre a montadora e acidentes específicos, a sua abordagem é muito reativa e permitiu que uma tecnologia falha colocasse os motoristas da Tesla – e aqueles ao seu redor – em risco.

Steven Cliff, ex-chefe da agência, reconheceu que o método adotado pode parecer muito cauteloso às vezes, mas afirmou que o trabalho foi feito de forma agressiva sob sua supervisão, obrigando empresas como a Tesla a relatar seus dados sobre acidentes envolvendo sistemas de assistência ao condutor. E, segundo ele, avançar da fase de recolha de dados para uma regra final, onde novos regulamentos são adotados se necessário, pode levar anos.

Cliff observou ainda que a empresa de Elon Musk poderia facilmente limitar onde a tecnologia pode ser implantada. “A Tesla sabe onde está. Possui navegação. Ela sabe se está em uma interestadual ou em uma área onde a tecnologia não foi projetada para ser usada. “Se não foi projetado para ser usado lá, então por que você pode usá-lo lá?”, questionou.

Elon Musk — Foto: Getty Images

Em um depoimento juramentado dado no ano passado, Ashok Elluswamy, chefe do piloto automático da Tesla, disse que não tinha conhecimento de qualquer documento que descrevesse limitações sobre onde e sob quais condições o recurso poderia operar.

A montadora não respondeu a um pedido de comentário feito pelo The Post. Mas, em processos judiciais e declarações públicas, sempre argumentou que não é responsável por acidentes envolvendo o piloto automático, porque o condutor é o responsável final pela trajetória do carro.

Ao longo dos anos, o NTSB apelou repetidamente à NHTSA para controlar o piloto automático. Também instou a Tesla a agir, mas Homendy informou que a empresa tem sido “excepcionalmente difícil de lidar” quando se trata de recomendações de segurança.

Texto: Redação Época NEGÓCIOS