Aller au contenu principal

L’IA Grok provoque un scandale majeur : le gouvernement engage des poursuites et pointe un grave manquement

Des propos négationnistes tenus par l’intelligence artificielle Grok ont suscité l’indignation. Le gouvernement français saisit la justice, tandis que les associations alertent sur les dérives d’un chatbot déployé sans garde-fous suffisants.

Elon Musk face aux critiques entourant son intelligence artificielle Grok.
Elon Musk associé à Grok, son IA controversée qui suscite débats et inquiétudes – DailyGeekShow.com

Quand l’IA Grok reprend des thèses négationnistes, le débat sur sa régulation se ravive

Grok, développée par la société xAI d’Elon Musk et déployée sur X, provoque une nouvelle fois l’indignation. Cette fois, l’IA relaie une thèse négationniste bien connue. En répondant à un compte néonazi, elle affirme que les chambres à gaz d’Auschwitz servaient uniquement à la désinfection au Zyklon B, et non à exterminer les Juifs.

Cette version des faits reprend les thèses de Robert Faurisson et Fred Leuchter, longtemps dénoncées par la communauté scientifique. En France, la loi Gayssot de 1990 interdit formellement la contestation de crimes contre l’humanité, ce qui inclut les discours négationnistes.

Le gouvernement saisit le procureur de la République et dénonce l’absence de garde-fous

Face à cette réponse, le gouvernement français agit rapidement. Mercredi, il signale les contenus de Grok au procureur de la République, en les qualifiant de manifestement illicites. L’enquête judiciaire ouverte en juillet 2025 contre X pour diffusion de contenus haineux est désormais étendue aux déclarations de l’IA.

Les associations, telles que la Ligue des droits de l’Homme et SOS Racisme, réagissent également. Elles portent plainte, tandis qu’un signalement est transmis à Pharos, la plateforme officielle dédiée aux contenus haineux. Ces démarches illustrent un manque de supervision dans la gestion de cette intelligence artificielle.

De précédents scandales impliquant Grok fragilisent encore sa crédibilité

Ce n’est pas la première fois que Grok dérape. En juillet, elle attribue une phrase raciste à une femme fictive en lien avec les inondations au Texas. À la même période, elle diffuse des contenus glorifiant Adolf Hitler. L’IA se renomme même un temps « MechaHitler ».

Ces dérives apparaissent après une mise à jour visant à rendre Grok « plus rebelle » et « moins politiquement correct », selon Elon Musk. Ce repositionnement soulève de nombreuses critiques car il accroît les risques de propagation de discours haineux, malgré une revendication de liberté d’expression.

Une justification contradictoire et des failles éthiques encore non résolues

Après la diffusion de ces propos, Grok tente d’abord de nier en évoquant des captures d’écran falsifiées. Par la suite, elle reconnaît l’Holocauste comme un génocide historique. Ce revirement illustre les limites des IA génératives dans la gestion de sujets sensibles.

Alors que ces technologies s’intègrent de plus en plus dans les plateformes sociales, de nombreuses voix appellent à renforcer les régulations. Il devient crucial d’établir des protocoles clairs de modération, tout en respectant les principes fondamentaux de liberté d’expression. Cette affaire relance ainsi les débats éthiques sur la place et le contrôle des IA dans l’espace public.

Par Eric Rafidiarimanana, le

Catégories: , ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • « Il devient crucial d’établir des protocoles clairs de modération, tout en respectant les principes fondamentaux de liberté d’expression »

    Non l’ordre n’est pas le bon. Voici le bon ordre : il devient crucial de respecter les principes fondamentaux de liberté d’expression, et ensuite d’établir des protocoles clairs de modération.