IA
— Tatiana Shepeleva / Shutterstock.com

L’intelligence artificielle est là pour rester. C’est pourquoi les experts tentent constamment de déterminer les limites de cette nouvelle technologie avant de devenir une menace pour la race humaine. Mais à quel point ces machines intelligentes sont-elles dangereuses ?

Un groupe de chercheurs de l’université d’Oxford a récemment averti les législateurs britanniques que l’« intelligence artificielle surhumaine » pourrait être plus dangereuse que les armes nucléaires. C’est pourquoi ils ont proposé de promulguer une loi pour empêcher une telle percée.

Les experts ont détaillé les dangers des technologies d’intelligence artificielle non réglementées dans une lettre officielle adressée au comité restreint des sciences et des technologies du Royaume-Uni. Ils y affirment que “l’IA dotée de capacités surhumaines pourrait tous nous tuer”. Et, avec les différentes puissances mondiales en compétition pour développer l’intelligence artificielle la plus puissante, le risque d’une arme superintelligente est assez élevé.

Michael Osborne, professeur d’apprentissage automatique à l’université d’Oxford, a témoigné devant le conseil des dangers de la « course aux armements en matière d’intelligence artificielle » entre la Chine et les États-Unis. « Ces puissances sont prêtes à faire fi de la sécurité et des précautions afin de développer l’IA la plus avancée. »

« Il y a encore de l’espoir car nous avons plutôt bien réussi à réglementer l’utilisation des armes nucléaires. Si nous pouvons reconnaître que l’intelligence artificielle avancée est aussi dangereuse que les armes nucléaires, nous pourrions être en mesure d’adopter une législation pour la réglementer« , a poursuivi M. Osborne.

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments