
Depuis des années, les leaders du secteur technologique vantent les mérites des voitures autonomes, promettant qu’elles élimineront bientôt les accidents de la route et leurs conséquences dramatiques. Parmi les défenseurs les plus fervents de cette technologie, on retrouve Elon Musk. Cependant, une vidéo récemment diffusée montre une voiture Tesla en mode de conduite autonome percutant mortellement une femme âgée de 71 ans, alors qu’elle aidait à sécuriser une route après un accident.
Depuis près d’une décennie, il annonce l’arrivée imminente d’une Tesla entièrement autonome, bien que cette promesse reste encore à tenir. Malgré l’absence de preuves que les véhicules Tesla atteignent le niveau requis pour une véritable autonomie, Elon Musk prévoit de lancer un service de robots-taxis à Austin dans les prochains jours. Des Tesla Model Y, sans conducteur, circulent déjà à titre de test dans cette région où vivent de nombreux conducteurs et piétons, ce qui rend encore plus choquant l’accident mortel survenu en Arizona en 2023.
Bloomberg is out with a new FUD story today, trying to smear Tesla ahead of their Robotaxi launch this month.
— Whole Mars Catalog (@WholeMarsBlog) June 4, 2025
To show why FSD will never work, they are highlighting a tragic crash… from November 2023, running FSD 11.4.4.
Really? Forget about the next gen unsupervised model… pic.twitter.com/VXV6FTcK6L
Une Tesla autonome a alors causé la mort brutale d’une femme de 71 ans, marquant le premier décès de piéton attribué au logiciel de conduite autonome de la marque. Une vidéo récemment diffusée par Bloomberg montre les terribles circonstances de cet accident. On y voit une Tesla roulant à vive allure sur une autoroute inondée par le soleil éblouissant de l’Arizona. Peu avant la collision, le véhicule réagit à un homme qui fait signe sur la route, en déviant brièvement à gauche. Mais il ne ralentit pas. Quelques secondes plus tard, la voiture se redirige vers la droite et percute violemment la femme, qui était en train de gérer la circulation après un accident précédent.
Bien qu’un conducteur humain se trouvait dans la Tesla au moment de l’accident, il n’a pas semblé intervenir. À ce stade, son rôle exact dans la tragédie reste flou. Tesla, comme tous les constructeurs automobiles utilisant des logiciels de conduite autonome, est tenue de signaler ce type d’incident. Pourtant, il a fallu sept mois à l’entreprise pour transmettre les détails de cet accident à la National Highway Traffic Safety Administration (NHTSA). Ce drame a déclenché une enquête fédérale sur le logiciel Full Self-Driving (FSD) de Tesla qui, malgré son nom, nécessite une supervision constante de la part du conducteur. Ce système a déjà été impliqué dans plusieurs accidents ces dernières années.
Une des failles majeures du FSD semble résider dans la technologie utilisée par Tesla pour détecter les obstacles. Contrairement à son concurrent Waymo, qui s’appuie sur le LiDAR (un système de détection par laser), Tesla mise uniquement sur des caméras visuelles. Cependant, de nombreux experts pointent les limites de cette approche en matière de sécurité. En parallèle, Tesla cherche activement à recruter des ingénieurs pour travailler sur des solutions de « nettoyage des capteurs », probablement pour remédier à ces problèmes. Malgré cela, le logiciel a été impliqué dans 467 accidents recensés en 2024.
Ces incidents jettent une ombre sur les ambitions de Tesla à Austin, où l’entreprise prévoit un déploiement massif de son service autonome. D’ailleurs, selon des documents internes de Tesla, même l’entreprise semble anticiper des difficultés majeures. Par ailleurs, en roulant à grande vitesse, la carrosserie d’un Cybertruck se décolle et s’envole.
Par Eric Rafidiarimanana, le
Source: Futurism
Étiquettes: Tesla
Catégories: Automobile & Mobilité, Brèves