Même si beaucoup d’efforts ont déjà été déployés pour avoir des véhicules autopilotés opérationnels, on a jusqu’à présent constaté que cette technologie affiche encore beaucoup de lacunes. Récemment, une voiture de conduite autonome Tesla a encore failli causer un accident grave, et ce, avec un véhicule de police.
Des inquiétudes concernant la sécurité du logiciel d’aide à la conduite de Tesla ont de nouveau été soulevées suite à un incident impliquant un véhicule équipé de la fonction « Full Self-Driving ». S’exprimant sur X (anciennement Twitter), le propriétaire du véhicule a partagé les images enregistrées par la caméra du tableau de bord au moment de l’incident. Il a notamment fait cela pour interpeler Tesla et Elon Musk sur cette faille de leur logiciel, ainsi que pour exprimer sa colère à ce sujet.
Dans la vidéo, on peut voir que la voiture roule à très grande vitesse, puis vire dans la voie opposée pour éviter un cycliste. Si le cycliste a pu être évité avec succès, le véhicule a failli provoquer une collision frontale avec une voiture de police qui venait en sens inverse. Heureusement, le conducteur de la Tesla a repris assez rapidement le volant pour éviter le pire. De son côté, le policier au volant de son véhicule a également eu le réflexe de freiner abruptement pour éviter un accident.
Si l’histoire s’est donc bien terminée, cet incident met en évidence qu’il y a encore un manque de fiabilité dans le logiciel d’aide à la conduite de Tesla. Notons que dans d’autres incidents qui impliquaient également des voitures autopilotées Tesla, des personnes sont malheureusement décédées. Par ailleurs, des experts réussissent à hacker et piloter une Tesla à distance.
Par Gabrielle Andriamanjatoson, le
Source: Futurism
Étiquettes: Tesla
Catégories: Automobile & Mobilité, Brèves