NHTSA Lance une Nouvelle Enquête sur le Système de Conduite Autonome de Tesla après Plusieurs Accidents

Contexte de l’Enquête

Le 18 octobre 2024, l’agence de sécurité routière des États-Unis, la National Highway Traffic Safety Administration (NHTSA), a annoncé le lancement d’une nouvelle enquête sur le système de « Full Self-Driving » (FSD) de Tesla.

Cette décision intervient après la réception de rapports concernant plusieurs accidents impliquant des véhicules Tesla équipés de cette technologie, dont un accident fatal impliquant un piéton.

Incidents Déclencheurs

L’enquête a été initiée suite à la notification par Tesla de quatre incidents liés à des conditions de visibilité réduite, telles que le glare du soleil, le brouillard et la poussière en suspension dans l’air.

L’un de ces incidents a malheureusement résulté en la mort d’un piéton, tandis qu’un autre a causé des blessures.

Étendue de l’Enquête

L’enquête couvrira environ 2,4 millions de véhicules Tesla fabriqués entre 2016 et 2024, incluant les modèles S, X, 3, Y et Cybertruck.

Les enquêteurs évalueront la capacité du système FSD à reconnaître et à réagir correctement aux conditions de visibilité réduite sur les routes, ainsi que les facteurs qui ont contribué à ces accidents.

Historique des Enquêtes sur Tesla

Ceci n’est pas la première fois que la NHTSA enquête sur les systèmes de conduite autonome de Tesla. En effet, c’est la 14e enquête ouverte par l’agence sur ce sujet.

Une enquête précédente, conclue en avril 2024, avait déjà mis en lumière des problèmes significatifs avec le système Autopilot et FSD de Tesla. L’enquête avait examiné plus de 1 000 accidents survenus entre janvier 2018 et août 2023, résultant en 29 décès.

La NHTSA avait constaté que 14 de ces accidents, entraînant 14 décès, étaient attribuables à une mauvaise utilisation par les conducteurs des systèmes Autopilot et FSD.

Problèmes de Conception et d’Utilisation

L’enquête précédente de la NHTSA avait critiqué le système de engagement du conducteur de Tesla, le jugeant inapproprié par rapport aux capacités opérationnelles permissives de l’Autopilot.

Les conducteurs utilisant l’Autopilot ou le FSD étaient souvent insuffisamment engagés, car Tesla n’avait pas assuré que les conducteurs maintenaient leur attention sur la tâche de conduite.

La NHTSA avait également exprimé des inquiétudes concernant la terminologie « Autopilot », la considérant comme trompeuse et susceptible de faire croire aux conducteurs que le logiciel avait un contrôle total.

Implications pour le Futur de Tesla

Cette nouvelle enquête arrive à un moment critique pour Tesla, alors que l’entreprise a récemment annoncé un prototype de « Cybercab », une taxi entièrement autonome sans volant, pédale de gaz ou de frein.

Les promesses d’Elon Musk concernant la sécurité et l’autonomie de ces véhicules sont ainsi mises à l’épreuve. L’enquête pourrait avoir des implications significatives pour Tesla, y compris une possible recall des véhicules affectés et des conséquences pour le lancement du Cybercab.


L’enquête de la NHTSA sur le système FSD de Tesla souligne les défis persistants liés à la sécurité et à la fiabilité des technologies de conduite autonome.

Alors que Tesla continue de pousser les limites de l’automatisation, il est crucial que les régulateurs et l’industrie travaillent ensemble pour garantir que ces technologies soient mises en œuvre de manière sûre et responsable.




Laisser un commentaire

Your e-mail will not be published. All required Fields are marked