Les chatbots savent déjà résoudre des exercices difficiles. Le test proposé par Demis Hassabis vise plus haut : retrouver une idée scientifique neuve sans l’avoir lue. Ce seuil explique pourquoi Google DeepMind, OpenAI, Anthropic et Yann LeCun regardent au delà des seuls grands modèles de langage.

Le calendrier de l’AGI se rapproche, mais 2030 reste un horizon technique
Dans un épisode de Y Combinator publié fin avril 2026, Demis Hassabis, cofondateur et directeur général de Google DeepMind, replace l’intelligence artificielle générale près de 2030. L’AGI désigne une IA capable d’apprendre, raisonner et agir dans plusieurs domaines, sans spécialisation étroite.
Ce calendrier ne signifie pas que les chatbots actuels vont simplement grossir. Hassabis distingue les fondations déjà utiles, comme l’entraînement massif et le retour humain, des verrous encore ouverts. Pour l’industrie, l’enjeu réel ressemble moins à une course de taille qu’à une question d’architecture.
Les grands modèles de langage gardent trois failles qui limitent leur autonomie
Les grands modèles de langage, ou LLM, prédisent la suite probable d’un texte. Cette méthode produit des réponses utiles, mais elle ne donne pas toujours une représentation stable du monde. Comme un GPS sans carte fraîche, le système peut avancer vite puis perdre son repère.
Hassabis pointe trois obstacles : l’apprentissage continu, le raisonnement long et la mémoire. L’apprentissage continu signifie intégrer une nouveauté sans réentraîner tout le modèle. La mémoire structurée consiste à garder les informations utiles, vérifiées et réutilisables, au lieu d’empiler un immense grenier numérique.
Le raisonnement reste aussi irrégulier. Un modèle peut réussir une tâche de compétition, puis échouer sur une variante plus courte. Dans un jeu d’échecs, ce défaut se voit quand l’IA repère un mauvais coup, cherche une alternative, puis revient pourtant au même choix.
Le test Einstein mesure une capacité plus rare que la bonne réponse
Le test évoqué par Hassabis consiste à limiter les connaissances disponibles avant une rupture scientifique, puis à demander au système de retrouver l’idée suivante. Avec un corpus arrêté avant 1905, l’IA devrait reconstruire la relativité restreinte, pas seulement réciter des phrases sur Einstein.
Cette épreuve sépare l’imitation de l’invention. La relativité restreinte répondait à des tensions entre observations et théories existantes. Pour un LLM, le texte seul manque souvent de prise physique : il sait qu’une balle tombe, mais ne simule pas forcément la gravité comme un phénomène.
AlphaFold et les world models dessinent une IA plus modulaire
Le Nobel de chimie 2024 remis à Demis Hassabis, John Jumper et David Baker donne un exemple utile. AlphaFold n’est pas un chatbot généraliste. Le système prédit des structures de protéines avec un objectif spécialisé, puis AlphaFold 3 étend ce travail aux interactions entre molécules.
Yann LeCun, ancien responsable scientifique de l’IA chez Meta et cofondateur d’AMI à Paris, défend une voie proche avec les world models. Ces modèles du monde cherchent à représenter les objets, les actions et leurs conséquences, comme un simulateur mental plutôt qu’un simple perroquet statistique.
L’idée qui se dessine combine plusieurs briques : LLM pour dialoguer, modèles spécialisés pour calculer, mémoire ordonnée pour conserver, apprentissage par renforcement pour choisir. Dans ce schéma, l’IA de demain ressemble moins à un cerveau unique qu’à un atelier avec plusieurs instruments sur l’établi.
Par Eric Rafidiarimanana, le
Étiquettes: IA générale, world models
Catégories: Robots & IA, Actualités