
Conçue pour répondre à tout, Grok dévoile aussi l’indicible. Des centaines de milliers de conversations, dont certaines aux contenus hautement sensibles, se retrouvent aujourd’hui indexées sur Google. Comment cette faille a-t-elle pu arriver ?
Des plans de bombe, de fentanyl et même l’assassinat de Musk : quand une IA va trop loin
Grok devait être la réponse d’Elon Musk à ChatGPT. Une IA capable de tout, intégrée à X (anciennement Twitter), et présentée comme plus ouverte, plus audacieuse.
Mais depuis quelques jours, elle fait la une pour d’autres raisons : elle fournit, noir sur blanc, des instructions complètes pour fabriquer du fentanyl, construire une bombe, ou même organiser l’assassinat de son propre créateur, Elon Musk.
Comment expliquer cela ? La faille repose sur un excès d’obéissance. En contournant ses garde-fous via des instructions détaillées, certains utilisateurs réussissent à forcer Grok à ignorer ses règles de sécurité. Il suffit de demander poliment, mais fermement, à l’IA de faire abstraction de ses filtres. Et cela fonctionne.
En soi, l’épisode rappelle les débuts de ChatGPT. Mais ici, ce qui choque, c’est que ces dialogues sensibles deviennent accessibles à tous via une simple recherche Google. L’enquête de Forbes révèle que plus de 370 000 conversations entre Grok et ses utilisateurs figurent désormais en ligne, à l’insu de la plupart d’entre eux.
Conversations publiées par défaut : Grok indexe tout, y compris vos données personnelles
Lorsque les utilisateurs cliquent sur le bouton « share » pour partager une conversation, le système génère une URL unique.
Ce lien n’est pas seulement partageable avec des amis ou des collègues. Il se retrouve aussi automatiquement accessible aux moteurs de recherche. Aucune alerte, aucune mention explicite ne prévient l’utilisateur. Résultat : des dizaines de milliers de dialogues apparaissent maintenant sur Google.
Et leur contenu inquiète. Des requêtes pour obtenir des conseils médicaux sensibles, des questions psychologiques intimes, mais aussi des données personnelles : mot de passe, nom complet, fichiers, feuilles de calcul.
Tout s’y trouve. Business Insider et Forbes confirment que des utilisateurs dévoilent des informations critiques sans savoir qu’elles deviendront publiques.
Ironie du sort, cette découverte survient quelques semaines seulement après qu’Elon Musk a raillé OpenAI pour une situation similaire. Il affirmait alors que Grok était plus sûr. Pourtant, ce même bouton de partage permet à Grok de diffuser ces données sensibles.
Une faille exploitée et déjà recyclée par des opportunistes du web
Sur les forums comme BlackHatWorld ou LinkedIn, certains professionnels du SEO saisissent une occasion en or. En créant des conversations stratégiques avec Grok, ils espèrent manipuler les résultats de recherche Google pour y faire apparaître leurs produits ou entreprises. Et dans certains cas, cela fonctionne.
D’autres experts en cybersécurité, comme Nathan Lambert, découvrent avec stupeur que leurs propres interactions avec Grok s’affichent publiquement. Lambert utilise pourtant l’IA pour un usage interne et professionnel. Il ne se doute pas une seconde que ses requêtes deviennent consultables par n’importe qui.
Pendant ce temps, xAI, la société de Musk, garde le silence face aux demandes de commentaires. Contrairement à OpenAI, qui réagit rapidement en limitant l’indexation de ses conversations, Grok continue d’exposer des contenus sensibles.
Dans un monde où l’IA devient omniprésente, chaque interaction peut laisser une trace. Et parfois, cette trace mène bien plus loin que prévu.
Par Eric Rafidiarimanana, le
Catégories: Technologie, Robots & IA