12 846 personnes connectées

Signée par plus de 1 000 personnalités, cette lettre met en garde l’humanité tout entière contre les robots tueurs

« Les armes autonomes deviendront les kalachnikovs de demain. » Voilà, entre autres, ce que contient une grande lettre ouverte, publiée le 28 juillet 2015. Cette dernière met en garde l’humanité tout entière contre l‘évolution alarmante des armes autonomes. Robots, drones, missiles, toutes ces technologies qui pourraient tuer sans intervention humaine inquiètent de nombreuses personnalités célèbres comme Elon Musk, Stephen Hawking ou même d’éminents chercheurs en robotique. Plus de 1 000 personnes ont déjà signé cette lettre dénonçant une course à l’armement qui pourrait, dans quelques dizaines d’années, devenir dangereuse pour l’humanité.

Elon Musk, co-fondateur de Tesla, Stephen Hawking, astrophysicien de renom, ou encore Steve Wozniak, co-fondateur d’Apple, sont venus rejoindre d’éminents spécialistes en robotique et en intelligence artificielle pour dénoncer d’une même voix le danger des armes autonomes. Par armes autonomes, ils laissent entendre : drones, robots, missiles, des technologies qui plus tôt qu’on ne le pense vont être (ou sont déjà) capables de « choisir et combattre des cibles sans intervention humaine ».

Dans une lettre ouverte publiée à l’occasion de la conférence internationale IJCAI sur l’intelligence artificielle, plus d’un millier de personnes ont donc réclamé l’interdiction des « robots tueurs ». Le discours est simple et concis, la course à l’armement robotique, toujours plus performant et toujours plus dangereux, ne doit pas commencer.

intelligence-artificielle-robot-crane
Les robots tueurs sont un danger pour l’Homme via Shutterstock

Tout le monde n’est cependant pas du même avis. On peut penser que les armes autonomes pourraient « remplacer des hommes par des machines [permettant] de limiter le nombre de victimes du côté de celui qui les possède ». Ainsi, Eriksen Søreide, la ministre de la défense en Norvège, a expliqué qu’il « serait inopportun d’interdire le développement des robots tueurs. Il est aujourd’hui difficile de savoir ce que recouvre cette notion. Il n’y a actuellement aucune technologie qui puisse vraiment recevoir ce qualificatif. » Pourtant, le danger est là : comme expliqué dans la lettre, si une grande puissance venait à avancer dans le développement d’armes dotées d’IA, « une course mondiale à l’armement (dans les mêmes proportions) serait inévitable ».

« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », explique-t-on dans la lettre. Les armes nucléaires très dangereuses demandent tout de même un matériel très coûteux et difficilement accessible, or ces armes autonomes elles, « ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ». Dès lors, « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique », alarment-ils.

 

Les armes autonomes vont pouvoir tuer leur cible sans aucune intervention humaine

drone-arme-militaire

Mais ne vous méprenez pas, les signataires n’ont pas approuvé ce texte dans l’optique de nuire à l’IA. Au contraire, ils veulent préserver son image pour ne pas en oublier sa principale mission et ses bénéfices sur la société, qui ne sont pas négligeables. Leur but est d’éviter que des applications néfastes de technologies prometteuses viennent ternir l’image de l’IA.

L’ONU s’était elle aussi penchée sur la question de l’interdiction des « armes létales autonomes » en avril 2015. Dans un même temps, l’ONG Human Right Watch dénonçait directement « l’absence de responsabilité légale pour les robots tueurs ».

Le lettre est disponible en libre accès sur le site Futur of Life, ici même. Cet organisme américain à but non lucratif a publié cette lettre le 28 juillet 2015. Le groupe s’intéresse aux « risques potentiels du développement d’une intelligence artificielle de niveau humain » et annonçait déjà récemment le financement de 37 projets pour prévenir les risques liés à l’intelligence artificielle, grâce à un généreux don d’Elon Musk.

 

Elon Musk qui soutient depuis déjà longtemps des projets contre les dangers de l’IA

elon-musk

Cette lettre nous ouvre les yeux sur le danger imminent que représentent les armes autonomes. À la rédaction, nous sommes du même avis que les signataires : l’intelligence artificielle peut avoir des bénéfices spectaculaires sur notre société mais son utilisation doit être limitée dans certains domaines au risque de devenir bien trop dangereuse pour nous. Pensez-vous que les armes autonomes doivent continuer à être développées ou, au contraire, croyez-vous comme Stephen Hawking qu’elles pourraient être bien trop dangereuses pour l’humanité ?