Stephen Hawking, physicien britannique reconnu, pense que l’intelligence artificielle peut signer l’extinction de l’espèce humaine : un scénario alarmant qu’il n’est pas le seul à revendiquer ! DGS vous éclaire sur ce futur inquiétant que prédisent certains scientifiques.
Le célèbre physicien Stephen Hawking a relancé le débat sur la recherche dans le domaine de l’intelligence artificielle qui pourrait un jour voir les machines pensantes prendre la relève sur nous. Le scientifique britannique a fait la demande d’une interview de grande envergure avec la BBC. Hawking a une maladie des neurones moteurs, la sclérose latérale amyotrophique et l’entretien portait sur une nouvelle technologie qu’il utilise pour mieux communiquer.
Elle fonctionne en modélisant son précédent usage des mots afin de prédire les mots suivants, un peu de la même manière que la prédiction des textos disponible aujourd’hui sur de nombreux smartphones. Mais le professeur Hawking a également mentionné son inquiétude sur le développement de machines qui pourraient un jour nous surpasser. « Une fois que les humains auront développé l’intelligence artificielle, elle pourra évoluer et se développer d’elle-même à un rythme de plus en plus impressionnant », a-t-il dit à la BBC. « Le développement de l’intelligence artificielle complet pourrait donc signifier la fin de l’espèce humaine. »
« Les machines pensantes pourraient-elles prendre le relais ? J’apprécie que la question de la prise en charge des ordinateurs soit soulevée par quelqu’un de cette importance, aussi intelligent et crédible que le professeur Hawking – il mérite une réponse rapide », explique le journaliste d’IFL Science. « Cette question de l’intelligence artificielle est aussi vieille que le père de la science informatique britannique Alan Turing en 1950, quand il a examiné la question suivante : « Les machines peuvent-elles penser ? »
La question de ces machines intelligentes qui nous remplacent a été soulevé par une variété de médias et dans la culture populaire. Ces questions furent d’ailleurs beaucoup traitées au cinéma notamment dans 2001: l’Odyssée de l’espace de Stanley Kubrick ou encore avec Skynet dans le Terminator de 1984 et ses suites, pour n’en nommer que quelques-uns. Une question commune à chacun, celle de la délégation des responsabilités à des machines. La notion de singularité technologique ( ou de machine super-intelligente) est quelque chose qui remonte au moins aussi loin que le pionnier de l’intelligence artificielle, Ray Solomonoff, qui en 1967, nous met en garde : « Bien qu’il n’existe aucune perspective de machines intelligentes dans un avenir proche, les dangers sont très graves et les problèmes très difficiles. Ce serait bien si un grand nombre d’êtres humains intelligents consacraient beaucoup de réflexion à ces problèmes avant qu’ils ne surviennent. Je pense que la réalisation de l’intelligence artificielle sera un événement soudain. A un certain moment dans le développement de la recherche, nous n’aurons eu aucune expérience pratique de cette forme d’intelligence à un niveau important : un mois plus tard, nous aurons une machine très intelligente et tous les problèmes et les dangers associés à notre inexpérience. »
En plus de donner cette variante de l’avertissement de Hawking en 1967, en 1985 Solomonoff s’efforçait de donner une échelle de temps pour la création de cette singularité technologique et de réfléchir aux effets sociaux. Nous partageons les préoccupations de Solomonoff, Hawking et bien d’autres concernant les conséquences d’avoir mis au point des machines plus rapides et plus intelligentes. Toutefois, l’auteur, informaticien et inventeur américain Ray Kurzweil est l’un des nombreux à en voir les avantages.
Dans le même temps, nous voyons des quantités croissantes de responsabilités déléguées à des machines. D’une part, la calculatrice de poche, des calculs de routine ou des systèmes de positionnement global (GPS). D’autre part, cela pourrait être des systèmes de contrôle de la circulation aérienne, des missiles guidés, des engins sans conducteur sur les sites miniers ou les derniers essais de voitures sans conducteur sur nos routes. Les humains délèguent la responsabilité aux machines à cause de la réduction du temps de travail, de la réduction du coût de fabrication et de l’amélioration de la précision. Mais les dégâts qui pourraient survenir concernant les dommages causés par un véhicule sans conducteur feront appel à certaines instances telles que la justice, l’assurance et l’attribution de la responsabilité.
On fait valoir que les ordinateurs pourraient prendre le relais lorsque leur intelligence sera supérieure à celle des humains. Seulement il y a aussi d’autres risques avec la délégation de la responsabilité. Certains soutiennent que le krach boursier de 1987 était en grande partie dû à la négociation de l’ordinateur. Il y a également eu des coupures de réseaux électriques causées par une erreur informatique. Les soucis matériels et de logiciels peuvent parfois être difficiles à détecter mais ils peuvent encore faire des ravages dans les systèmes à grande échelle, même en excluant les pirates informatiques ou les intentions malveillantes. Alors à quel point pouvons-nous vraiment faire confiance aux machines pour déléguer de grandes responsabilités dans le but que celles-ci fasse un meilleur travail que nous. Même sans qu’un ordinateur prenne consciemment le contrôle, nous pouvons envisager une variété de chemins dans lesquels les systèmes informatiques sont hors de contrôle. Au moment où cela arriverait, les systèmes en question pourraient devenir difficiles à diriger et même à désactiver.
Selon Solomonoff et Hawking, il faut entreprendre des discussions publiques afin d’imaginer les scénarios possibles où une intelligence artificielle pourrait prendre le contrôle sur nous et trouver des solutions envisageables dans ce cas. En somme, réfléchir à ce que nous pouvons faire si un jour l’intelligence artificielle venait à nous surpasser et causerait l’extinction de l’espèce humaine. Imaginez qu’un jour, ce genre d’histoire qui n’était pourtant qu’une petite blague devienne une réalité.
Les propos de ces scientifiques sont vraiment inquiétants et il est vrai que beaucoup d’entre nous ont été amenés un jour à réfléchir sur ce phénomène qui serait selon Solomonoff et Hawking un scénario de fin du monde. D’ailleurs, pensez-vous qu’il faille brider la recherche sur l’intelligence artificielle ou continuer à tout mettre en oeuvre pour rendre les robots plus intelligents (quitte à se préparer au pire…) ?
Par Alexis Pommier, le
Source: IFL Science