Aller au contenu principal

L’intelligence artificielle menace le réseau électrique mondial, mais une trouvaille chinoise pourrait tout renverser

Et si l’avenir de l’IA ne tenait pas à sa puissance brute, mais à une astuce d’ingénierie ? Alors que les modèles les plus avancés absorbent toujours plus d’énergie, une équipe chinoise affirme avoir trouvé une méthode radicale pour les rendre bien plus sobres.

Allée de serveurs dans un data center moderne, illustrant la consommation énergétique élevée des infrastructures dédiées à l’intelligence artificielle.
Les centres de données, essentiels au fonctionnement de l’intelligence artificielle, concentrent une grande partie de sa consommation électrique mondiale – DailyGeekShow.com / Image Illustration

Pourquoi les modèles d’IA actuels deviennent une menace pour les réseaux électriques mondiaux

On commence à le voir venir : l’énergie devient le nerf de la guerre pour l’IA. Former un grand modèle de langage, c’est comme faire tourner des centaines de foyers pendant des mois. Et quand on pense que cette tendance va exploser avec l’essor des usages de l’IA, notamment générative, on comprend mieux pourquoi certains experts américains parlent d’un « blackout digital imminent ».

Aux États-Unis, certaines régions comme la côte Est prévoient déjà des coupures tournantes pour les data centers, selon le Wall Street Journal. Le cœur du problème ? Les supercalculateurs et cartes graphiques (GPU) qui, pour déployer leur puissance, engloutissent une quantité délirante d’électricité. En clair : plus d’intelligence artificielle, c’est plus de CO2, plus de centrales, plus de tension sur les réseaux.

Comment les memristors pourraient remplacer les GPU avec une approche radicalement différente

Et si on déplaçait le champ de bataille ? C’est exactement ce que propose une technologie longtemps restée dans l’ombre : les memristors. Ces composants sont à mi-chemin entre la mémoire et le processeur. Leur particularité ? Ils se souviennent de leur résistance électrique, ce qui leur permet de réaliser des calculs directement en mémoire, sans devoir transférer en permanence des données comme le fait une architecture classique.

C’est comme si l’on combinait le cerveau et la mémoire vive dans un seul composant. Sur le papier, c’est une révolution. Mais en pratique, ces memristors sont instables, bruités, ce qui les rend imprécis. Jusqu’ici, ils étaient donc jugés inadaptés pour entraîner des IA puissantes.

Une stratégie d’entraînement inédite pour tirer parti des erreurs des memristors tout en réduisant la consommation

C’est là qu’intervient le coup de génie d’une équipe du laboratoire du Zhejiang, en Chine. Au lieu d’essayer de corriger les erreurs des memristors, ils ont décidé de vivre avec. Leur approche ? Une technique appelée EaPU, pour error-aware probabilistic update.

L’idée est simple et brillante : plutôt que de chercher la perfection à chaque itération, le réseau accepte les petites erreurs, tant qu’elles restent sous un certain seuil. Il choisit alors de ne mettre à jour qu’une infime partie des paramètres, parfois moins de 0,1 %.

Résultat ? Moins d’écritures sur les memristors (donc moins d’usure), jusqu’à 50 fois moins d’énergie consommée, et une durée de vie prolongée par 1 000 ! Et surtout, la précision est au rendez-vous : +60 % par rapport aux anciennes méthodes avec memristors, au point de concurrencer des supercalculateurs classiques. Ce n’est plus une expérience de labo, c’est un changement de paradigme.

Une innovation applicable aux LLM, mais aussi à d’autres technologies comme la MRAM et les transistors ferroélectriques

Pour l’instant, cette technique a été testée sur des tâches modestes : débruitage d’image, super-résolution, sur des matrices de memristors de 180 nm. Mais les chercheurs voient plus loin. Ils estiment que la méthode EaPU pourrait s’adapter aux grands modèles de langage (LLM). Et même au-delà : d’autres technologies comme la MRAM ou les transistors ferroélectriques pourraient aussi en bénéficier.

Imaginez un ChatGPT tournant sur un matériel 100 fois plus sobre et 1 000 fois plus durable. Cela changerait la donne pour les entreprises, les gouvernements, et peut-être pour la planète tout entière. Ce n’est pas pour demain, mais le concept est là, solide, publié dans Nature Communications, et les tests à grande échelle sont attendus.

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *