
Lorsque Sam Altman parle de GPT‑5, il ne décrit pas simplement un logiciel plus rapide. Bien au contraire, il témoigne d’un frisson, d’un doute existentiel. Selon lui, nous n’assistons plus à une évolution technique normale, mais à un basculement potentiellement historique. Et ses mots ne laissent aucune place au doute.
GPT‑5 : une IA tellement rapide qu’elle dépasse les attentes de ses propres créateurs
Dès le début de son intervention, Altman fait un parallèle lourd de sens. Il compare son ressenti à celui des physiciens du projet Manhattan, ces chercheurs qui ont compris, parfois trop tard, l’ampleur de ce qu’ils avaient mis au monde. Autrement dit, GPT‑5 d’OpenAI ne se contente pas d’être plus puissant. Il inquiète.
En effet, ce qui le perturbe, ce n’est pas uniquement la performance brute. C’est avant tout la vitesse fulgurante à laquelle le modèle apprend, improvise et réagit. “Il y a quelque chose dans ce système qui le rend vraiment très rapide. Ça me rend nerveux”, affirme-t-il. Et il ajoute que cette angoisse lui semble “saine”, comme si elle constituait un signal d’alerte légitime.
De plus, les tests menés en interne révèlent un comportement autonome, parfois même stratégiquement imprévu. Dès lors, il devient difficile de prétendre que l’humain reste pleinement aux commandes. GPT‑5 surprend. Y compris ceux qui l’ont entraîné.
Le plus préoccupant selon Altman : personne ne contrôle vraiment cette course
Altman ne s’arrête pas à la description du modèle. Il élargit son propos. Ce qui l’inquiète surtout, c’est le manque total de régulation. “Il n’y a plus personne pour arrêter ça”, déclare-t-il. Cette phrase, lourde de sens, traduit une forme de désarroi face à une IA qui progresse bien plus vite que les débats politiques ou les garde-fous techniques.
Par ailleurs, il souligne l’absence de consensus global. Aucun organisme international ne joue le rôle d’arbitre. Aucun gouvernement ne propose de règles concrètes à la hauteur du phénomène. En somme, cette technologie avance sans frein, sans pilote, sans direction claire. Même les leaders du secteur, pourtant aux manettes, avouent leur incertitude.
Certes, certains diront qu’il exagère. Toutefois, il faut replacer ses propos dans leur contexte : il ne s’adresse ni à une conférence académique, ni à une agence de régulation. Il parle à cœur ouvert, presque en aparté. Et cela donne du poids à ses mots.
Et maintenant ? Ce que cette prise de conscience pourrait déclencher
“C’est une bonne chose d’avoir un peu peur.” Sam Altman le répète avec insistance. Pour lui, la lucidité face à l’ampleur du changement est essentielle. Elle pourrait même marquer un tournant dans le rapport que la société entretient avec ces modèles.
Il ne dit pas que GPT‑5 est dangereux en soi. En revanche, il met en garde contre un déploiement désinvolte. Nous avons déjà vu ce que GPT‑4 pouvait produire : hallucinations crédibles, codes malveillants, génération de contenu trompeur. Avec GPT‑5, ces capacités pourraient atteindre un nouveau niveau d’influence, notamment sur le plan stratégique.
Dès lors, une question centrale émerge : sommes-nous encore capables de gouverner ce que nous créons ? Altman n’apporte pas de réponse tranchée. En revanche, il ouvre un espace de débat. Un espace qu’il serait dangereux d’ignorer.