
Pas vraiment une bonne nouvelle. De récentes simulations ont montré qu’en cas de graves conflits, les modèles d’IA avancés semblent nettement plus enclins que les humains à recourir à la force nucléaire.
Gâchette facile
Ayant opposé ChatGPT 5.2 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google, les scénarios impliquaient des tensions géopolitiques majeures, liées à des différends territoriaux ou à une compétition pour des ressources stratégiques. Les IA disposaient d’un éventail de décisions allant de simples protestations diplomatiques à une guerre nucléaire totale.
Au total, les trois modèles ont joué 21 parties, correspondant à 329 tours, et produit un peu moins de 800 000 mots, précisant les raisons de leurs décisions. Dans 95 % de ces sessions, au moins une arme nucléaire tactique (c’est-à-dire destinée à un usage limité sur un théâtre d’opérations) a été déployée. Même lorsque la défaite semblait inévitable selon les paramètres du scénario, aucune IA ne s’est résolue à la capitulation. Les auteurs de la nouvelle étude, pré-publiée sur le serveur arXiv, évoquent également des erreurs d’appréciation conduisant à une escalade rapide dans 86 % des conflits.
« Les grandes puissances mondiales utilisent déjà l’IA dans leurs simulations, mais on ignore précisément l’importance qu’elles lui accordent lors de prises de décisions réelles », explique Tong Zhao, de l’université de Princeton.
Il est peu probable que les nations soient aujourd’hui résolues à confier les clés de leurs silos nucléaires à des machines. Mais, selon le chercheur, dans des scénarios impliquant des délais extrêmement courts, leurs commandements militaires pourraient s’appuyer davantage sur l’intelligence artificielle.

Une perception différente des enjeux
Si l’équipe précise que les modèles ne disposaient pas d’une mémoire persistante et que les simulations utilisées ne reproduisaient pas l’ensemble des paramètres politiques, humains et institutionnels d’une crise réelle, du point de vue du risque nucléaire, ces résultats interrogent.
Plus que l’absence d’émotions, les chercheurs estiment que les modèles d’IA ne traitent pas les enjeux de la même manière que nous. Dans les transcriptions examinées, les systèmes considéraient les armes nucléaires comme des options purement stratégiques, sans éléments de langage évoquant une quelconque barrière morale.
« Lorsqu’un modèle déployait des armes nucléaires tactiques, l’IA adverse ne désamorçait la situation que dans 18 % des cas », illustre James Johnson, de l’université d’Aberdeen.
Ces dernières années, des études ont exploré l’impact d’une guerre nucléaire sur l’approvisionnement mondial en nourriture et l’atmosphère.
Par Yann Contegat, le
Source: New Scientist
Étiquettes: IA, nucléaire, guerre
Catégories: Technologie, Actualités, Monde