OpenAI suspend l’usage du visage de Martin Luther King Jr. sur Sora après des vidéos jugées irrespectueuses. Face à l’indignation de la famille du pasteur, l’entreprise admet la nécessité de poser des limites éthiques à la créativité de l’intelligence artificielle.

L’entreprise suspend l’usage du visage du leader américain sur Sora, après des vidéos jugées irrespectueuses
Il y a quelque chose d’assez troublant dans cette époque où des algorithmes font revivre les morts. Dernière victime de cette étrange modernité : Martin Luther King Jr. Des utilisateurs de la plateforme Sora ont généré des vidéos de lui, parfois grotesques, parfois offensantes. Résultat, OpenAI vient d’annoncer une pause immédiate dans l’usage de son image. Et ce n’est pas qu’un simple ajustement technique : c’est un débat moral, presque philosophique.
Une réaction face à l’indignation publique
Tout est parti des plaintes de la famille du pasteur, et notamment de sa fille Bernice King. Elle a publiquement demandé qu’on arrête de lui envoyer ces vidéos, “irrespectueuses et douloureuses”. L’entreprise a répondu en bloquant temporairement les créations utilisant la ressemblance de Martin Luther King, le temps de renforcer ses garde-fous.
OpenAI précise désormais que les héritiers ou représentants légaux de figures historiques pourront demander à ce que leur image ne soit pas utilisée dans Sora. Une manière de reprendre le contrôle sur un espace numérique devenu, parfois, incontrôlable.
Entre liberté d’expression et respect de la mémoire
Certains défendent la liberté artistique : “Les figures publiques appartiennent à l’histoire, on devrait pouvoir les représenter.” En théorie, oui. En pratique, quand une IA fait prononcer à Martin Luther King des mots qu’il n’a jamais dits, le résultat relève davantage du détournement que de l’hommage.
OpenAI se défend de vouloir censurer, mais rappelle qu’il existe une limite éthique. Même au nom de la créativité, la mémoire des morts n’est pas un terrain de jeu sans règles.
Un précédent embarrassant pour OpenAI
Ce n’est pas la première fois que l’entreprise se retrouve dans ce genre de polémique. Lors du lancement de Sora, des utilisateurs avaient inondé la plateforme d’images d’animation célèbres — Pikachu, Rick et Morty, SpongeBob — provoquant une vague de plaintes pour atteinte au droit d’auteur. OpenAI avait dû faire demi-tour et instaurer une politique d’“opt-in” : les ayants droit doivent donner leur accord avant l’utilisation de leurs créations.
Aujourd’hui, l’entreprise applique la même logique, mais à des personnes réelles, vivantes ou mortes. Et là, le terrain devient glissant : contrairement au droit d’auteur, il n’existe aucune loi fédérale aux États-Unis qui encadre l’usage du visage ou de la voix d’une personne.
Le flou juridique autour du droit à l’image
Aux États-Unis, certains États — comme la Californie — reconnaissent un droit à la vie privée post-mortem, notamment pour les artistes et les interprètes. Cela signifie que leur image ne peut pas être exploitée commercialement sans autorisation. Une protection encore floue ailleurs, mais qui prend une dimension nouvelle avec l’IA.
OpenAI se retrouve donc à naviguer dans un vide juridique : comment fixer des règles dans un monde où la technologie peut tout imiter, jusqu’à la conscience d’un défunt ?
L’enjeu moral : peut-on “faire revivre” quelqu’un sans son consentement ?
La question dépasse de loin le cas Martin Luther King. Elle touche à l’essence même du rapport entre mémoire et innovation. Peut-on ressusciter un visage, une voix, une personnalité, sans trahir ce qu’elle représentait ?
Dans une société obsédée par la performance technologique, le respect des morts devient presque un acte de résistance.
OpenAI semble en avoir conscience. En acceptant de donner aux familles le droit de dire “non”, l’entreprise reconnaît implicitement que tout n’est pas reproductible. C’est une manière timide, mais salutaire, d’admettre que l’éthique doit précéder la technologie, pas l’inverse.
Le risque d’un monde où tout est simulacre
Si les géants de l’IA ne posent pas de limites, demain, n’importe qui pourra faire dire à n’importe quel personnage historique n’importe quoi. Imagine un discours d’Einstein vantant les mérites d’une marque de soda. L’absurde n’est jamais loin.
Les deepfakes posent déjà des problèmes massifs de désinformation. Quand ils touchent à des figures comme Martin Luther King, c’est la mémoire collective elle-même qui vacille. L’enjeu, ce n’est pas seulement la protection d’une image, mais la préservation d’une vérité historique.
La suspension décidée par OpenAI n’est qu’un signal, mais il compte. Elle montre que même les entreprises les plus puissantes du numérique commencent à reconnaître qu’elles ne peuvent pas se contenter de coder vite et de réfléchir après.
Les morts n’ont pas de voix pour se défendre. Il appartient aux vivants de poser les limites.
Par Eric Rafidiarimanana, le
Catégories: Technologie, Robots & IA