Les autorités américaines ont classé sans suite jeudi une enquête de six mois sur le système de conduite assistée Autopilot, du constructeur de voitures électriques Tesla, faute d'avoir détecté un défaut du logiciel à la suite d'un accident mortel.

Cette enquête, qui menaçait de ralentir l'arrivée sur les routes des voitures autonomes, a finalement dédouané le système d'aide à la conduite installé dans les voitures (Modèlel S et Modèle X) commercialisées par Tesla.

«L'enquête n'a pas trouvé de défaut au logiciel. Il n'y a pas de preuve qu'il y a un défaut», a déclaré jeudi Bryan Thomas, porte-parole de NHTSA lors d'une conférence téléphonique avec des journalistes.

Dans son rapport, le régulateur américain insiste sur le fait que ses enquêteurs «n'ont pas identifié de défaut ni sur la conception ni dans la performance des systèmes de freinage d'urgence d'Autopilot ni d'incidents au cours desquels ces systèmes n'ont pas fonctionné correctement».

L'épave du Modèle S à bord duquel Joshua Brown s'est tué. Photo : National Transportation Safety Board, via AP.

Ce verdict va éviter à Tesla d'effectuer un rappel de voitures à l'impact financier important au moment où le constructeur est déterminé à devenir rentable.

Pour M. Thomas, l'accident mortel du 7 mai était lié à un «nombre de facteurs humains». Ce jour-là, Joshua Brown, un automobiliste d'une quarantaine d'années, avait trouvé la mort lors d'une collision avec un camion sur une route de Floride.

La responsabilité mise sur le conducteur

«La reconstruction indique que le poids lourd aurait dû être vu par le conducteur de la Tesla au moins sept secondes avant le choc», souligne le régulateur américain.

Elon Musk, le patron fondateur de Tesla, s'est aussitôt réjoui de la nouvelle, parlant d'un rapport «très positif».

Mais pour John Simpson, directeur d'une association de protection des consommateurs, M. Musk «aurait dû être tenu pour responsable» car «l'appellation «Autopilot» crée l'impression qu'une Tesla peut se conduire seule. (Or) ce n'est pas le cas».

Autopilot est un logiciel composé de capteurs, sonars, caméras et de technologies dernier cri permettant aux voitures Tesla d'effectuer seules certaines manoeuvres comme freiner en cas de danger.

Outre les États-Unis, il est devenu l'objet de critiques dans différents pays, dont la Chine où le père d'un automobiliste tué en janvier 2016 dans un accident à bord d'une Tesla a porté plainte contre le constructeur.

Tesla a toujours fait valoir que son système de pilotage automatique sauve des vies, argumentant que l'accident mortel du 7 mai était le premier sur les 200 millions de kilomètres parcourus en mode pilotage automatique par ses voitures. Par comparaison, affirme le groupe, il y aurait aux États-Unis en moyenne un mort tous les 150 millions de kilomètres parcourus par les voitures classiques.

«Le rapport souligne que «les données montrent que les accidents impliquant les véhicules Tesla ont diminué de près de 40% après l'installation du système d'auto pilotage», s'est d'ailleurs vanté Elon Musk sur son compte Twitter jeudi après les annonces de la NHTSA.

Voilà comment les employés de Tesla conduisent les Tesla équipées du logiciel Autopilot. Combien de propriétaires de Tesla font pareil ? Photo : Reuters

La NHTSA n'aime pas le nom «Autopilot»

L'agence de la sécurité routière américaine a toutefois apporté un bémol, se disant préoccupée par l'usage du mot «Autopilot dans les brochures marketing et de communication» déployées par l'ensemble de l'industrie automobile pour vanter les prouesses technologiques.

L'appellation Autopilot «donne une fausse idée aux conducteurs sur les capacités de la voiture», prévient la NHTSA, qui indique avoir découvert au cours de son enquête sur les voitures Tesla que le système d'aide à la conduite interne «exige une attention totale du conducteur».

«Un conducteur ne devrait jamais attendre que s'opère le freinage automatique lorsqu'il perçoit un risque de collision», recommande la NHTSA.

Tesla a procédé en septembre à une amélioration d'Autopilot, davantage basée sur l'utilisation de radars et capable de fonctionner à travers la pluie, le brouillard et la neige.

Mais «cela ne signifie pas qu'il n'y a pas de défaut relatif à la sécurité», met en garde la NHTSA, qui affirme que les enquêtes sur les incidents impliquant les voitures équipées de fonctions semi-autonomes ont montré que les conducteurs étaient «confus» sur leur rôle.