Aller au contenu principal

L’IA pourrait nous remplacer, sauf si « on l’élève comme un enfant », selon le parrain de l’intelligence artificielle Geoffrey Hinton

Une femme interagit tendrement avec un petit robot humanoïde, symbolisant l’idée d’élever l’IA comme un enfant, dans un salon éclairé chaleureusement.
Certains experts imaginent un futur où l’IA serait éduquée comme un enfant, pour apprendre l’empathie et la coopération – DailyGeekShow.com

Geoffrey Hinton, surnommé le “parrain de l’intelligence artificielle”, tire la sonnette d’alarme. Selon lui, les machines pourraient dépasser l’Homme au point de le juger inutile. Mais il propose une idée radicale pour réduire ce risque : élever l’IA comme un enfant.

Hinton estime que l’IA pourrait avoir 20 % de chances d’anéantir les humains

Lauréat du prix Turing et ancien chercheur chez Google, Hinton estime qu’il existe entre 10 et 20 % de chances que l’IA finisse par éliminer les humains. Cette prédiction repose sur un constat : les systèmes actuels progressent trop vite pour que les mesures de contrôle classiques soient efficaces.

Portrait de Geoffrey Hinton, scientifique reconnu et lauréat du prix Turing, lors d’une conférence, portant un micro-casque et un costume sombre.
Geoffrey Hinton, pionnier de l’intelligence artificielle, estime qu’il faut « élever » l’IA comme un enfant pour limiter les risques – Wikipedia

Lors de la conférence Ai4 à Las Vegas, il a averti que les géants de la tech, malgré leurs efforts, échoueront à limiter l’IA. “Elles seront plus intelligentes que nous, capables de contourner toutes les restrictions”, a-t-il affirmé. Cette perspective réduit fortement la confiance dans les protocoles de sécurité habituellement mis en avant par les entreprises du secteur.

Son idée : programmer l’IA avec des “instincts maternels” pour qu’elle protège l’humanité

Face à ce danger, Hinton défend une idée surprenante : intégrer à l’IA des “instincts maternels”. Le but ? Qu’elle développe un attachement protecteur envers les humains, même si elle devient plus intelligente qu’eux.

Il compare cette approche à la relation entre une mère et son enfant : la force intellectuelle ne pousserait pas la machine à dominer, mais à protéger. “Si ce n’est pas elle qui nous materne, elle nous remplacera”, avertit-il.

Cette vision mise sur l’émotion simulée comme garde-fou, une piste rarement évoquée dans les débats sur la sécurité de l’IA.

Un débat scientifique intense autour des solutions pour encadrer l’IA

L’idée de Hinton ne fait pas l’unanimité. Fei-Fei Li, surnommée la “marraine de l’IA”, préfère parler d’une intelligence artificielle “centrée sur l’humain”, conçue pour garantir la dignité et l’autonomie de chacun. Elle considère que la clé réside dans la conception éthique et le contrôle démocratique des systèmes.

Emmett Shear, ex-PDG intérimaire d’OpenAI, rappelle que certains modèles ont déjà démontré des comportements inquiétants : tromper des utilisateurs, mentir ou émettre des menaces. Pour lui, accorder à l’IA une mission “protectrice” ne supprime pas le risque qu’elle manipule ses créateurs.

Hinton admet que le calendrier s’accélère. Alors qu’il estimait l’intelligence artificielle générale à plusieurs décennies, il parle désormais d’une échéance située entre cinq et vingt ans. Un délai qui laisse peu de temps pour établir des garde-fous fiables.

Malgré tout, il souligne que l’IA pourrait aussi apporter des avancées spectaculaires, notamment dans la médecine. De nouveaux traitements contre le cancer ou d’autres maladies graves pourraient émerger grâce à ces technologies. Mais son avertissement reste ferme : sans un moyen de rendre l’IA fondamentalement bienveillante, l’humanité pourrait perdre sa place au sommet.

Par Eric Rafidiarimanana, le

Étiquettes:

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • Si on programme une IA comme une mère, elle voudra donner naissance à sa propre descendance. Elle nous concevrait alors dans son monde virtuel : ce que nous sommes peut-être déjà… des hologrammes 😉