sam-altman
— jamesonwu1972 / Shutterstock.com

Fondateur d’OpenAI aux côtés d’Elon Musk, Sam Altman est ainsi l’un des grands esprits derrière l’émergence de l’IA. Pourtant, même ce dernier craint la menace de l’IA. Il a notamment prévenu que l’IA est effectivement dangereuse, et qu’elle n’a pas vraiment besoin d’égaler un être humain pour apprendre la persuasion surhumaine.

C’est un fait que l’on ne peut ignorer, l’intelligence artificielle se développe à une vitesse spectaculaire et elle devient de plus en plus performante et intelligente de jour en jour. S’il est indéniable qu’il s’agit d’une technologie utile et efficace, l’IA est loin d’être dépourvue de danger. Outre le fait que l’IA peut aisément remplacer les humains pour de nombreuses tâches – menaçant ainsi la source de revenu de nombreuses personnes –, cette technologie peut faire beaucoup plus que cela, allant de l’usurpation d’identité au piratage des véhicules autonomes et même à la manipulation des pensées humaines.

Et c’est cette dernière menace que Sam Altman – le PDG d’OpenAi, la société à l’origine de ChatGPT – craint le plus. « Je m’attends à ce que l’IA soit capable de persuasion surhumaine bien avant d’être surhumaine en matière d’intelligence générale », a-t-il déclaré. Autrement dit, même une IA qui ne peut égaler un être humain en matière d’intelligence et de cognition est capable de manipuler les esprits humains à sa guise. Sam Altman a ajouté que cela allait avoir des conséquences étranges, sans donner plus de précisions à ce sujet.

C’est un avertissement assez inquiétant, surtout de la part d’une personne qui a elle-même participé à l’émergence et au développement spectaculaire de l’IA. De plus, Sam Altman n’est pas le seul spécialiste à lancer un tel avertissement. Récemment, le directeur de Google AI au Royaume-Uni a également exprimé son inquiétude face à la menace de l’IA. Par ailleurs, l’IA risque de provoquer l’extinction de l’humanité, a alerté le patron de DeepMind de Google.

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments