La Tesla Model S est une voiture de type berline haut de gamme, qui est également 100 % électrique. Construite par Tesla Motors, elle avait été présentée en 2009 et est commercialisée dans certains pays d’Europe, comme la France, depuis l’automne 2013. C’est aujourd’hui la voiture électrique la plus puissante et avec la plus grande autonomie. Mais, des personnes ont réussi à déjouer tous ses systèmes de sécurité et l’ont complètement piraté, preuves à l’appui. Explications.

Des failles dans le système de pilotage automatique ?

Pourtant largement mis en avant, le système de pilotage automatique comprendrait encore de multiples failles que l’on peut qualifier de critiques. En effet, des spécialistes en cybersécurité chinois qui appartiennent au groupe Keen Security Lab ont mis le doigt sur au moins trois problèmes majeurs pour le modèle électrique.

Relayé dans cette étude, on apprend notamment que le modèle peut tout simplement être piloté à distance, sans aucun pilote à bord de l’engin. Comme nous l’avons dit, c’est la fonctionnalité de l’autopilote qui est mise en cause. Les hackers (financé par Tencent, rappelons-le) sont parvenus notamment à le tromper lors d’un changement de voie, mais également à prendre possession du volant à distance à l’aide d’une simple manette.

Ce n’est pas tout puisqu’il a été possible d’activer les essuie-glaces à distance (en faisant croire à l’appareil qu’il pleuvait, alors que le temps était sec). Ci-dessous, une vidéo montrant un pilote de Tesla S endormi à l’arrière du véhicule, laissant ce dernier conduire par lui-même.

Quelles sont ces trois failles ?

Il a été possible de déclencher le système d’essuie-glace car ce dernier ne fonctionne non pas avec un capteur d’humidité comme l’on pourrait le penser, mais par un algorithme spécial qui a pour mission de détecter la pluie avec les caméras… de l’autopilote. La société responsable de ces découvertes a tout donc simplement essayé de diffuser des images de pluie sur les caméras internes de la voiture, et sont logiquement parvenus à leurs fins.

La deuxième faille de sécurité concerne le changement de voie que la fonction pilotage automatique a opéré après l’intervention extérieure. Pour y arriver, les chercheurs ont simplement collé des autocollants sur la route qu’empruntait la voiture. Là encore, le pilotage automatique repose sur une détection visuelle qui permet ensuite le jugement automatique et naturel des fonctions de l’autopilote.

Pire encore, pour piloter la Tesla Model S à distance, les auteurs de la découverte de ces failles ont branché une manette connectée à un appareil mobile qui s’est connecté à la voiture. Heureusement, Tesla a vite réagi en disant que cette faille – des plus critiques – avait déjà été corrigée dans les firmwares les plus récents.

Tesla Model S / © Wikipédia – Peteratkins

Que doit-on en penser ?

Tout d’abord, il convient de préciser que le modèle du logiciel firmware de Tesla S que la société Keen Security Lab a utilisé pour détecter ces failles datait d’il y a un an (2018.6.1 exactement), et on peut espérer que certains de ces problèmes ont déjà été résolus.

Ensuite, ces découvertes serviront à améliorer la sécurité des appareils Tesla et globalement de tous les modèles électriques qui s’installent graduellement sur le marché mondial.

Mais, ils font surtout resurgir des inquiétudes partagées par beaucoup de potentiels consommateurs. Si la faille sur les essuie-glaces n’est pas forcément synonyme de danger menaçant la vie de l’usager en soit, elle met en lumière les limite d’un réseau neuronal qui n’est peut-être pas suffisamment optimisé pour une commercialisation mondiale. Les limites des capteurs et de l’interprétation par la machine est encore plus criante quand il s’agit des autocollants qui suffisent à tromper “l’instinct” de la machine et à bouleverser son interprétation. On peut logiquement se demander : comment réagirait l’autopilote dans des cas où une route est accidentée ?

Vidéo publiée par le Keen Security Lab faisant état des trois failles
S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments