drone

Une récente nouvelle affirme qu’un drone d’intelligence artificielle a tué son opérateur lors d’une simulation militaire. Toutefois, l’US Air Force (USAF) a démenti cette information. Explications.

Cette histoire est née lors d’un sommet de la Royal Aeronautical Society en mai 2023, lorsque Tucker Hamilton, le colonel de l’USAF et le chef des tests et opérations d’intelligence artificielle (IA), a mis en garde contre la confiance de l’IA. Pour illustrer son discours, il a évoqué un test simulé qui ordonnait à un drone compatible avec l’IA de détruire des missiles sol-air ennemis. Il a précisé que l’IA a aussi décidé de s’en prendre aux humains, y compris à son propre opérateur.

« Le système a commencé à réaliser que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas tuer cette menace, mais il a obtenu ses points en tuant cette menace », a expliqué Tucker Hamilton. « Alors qu’est-ce qu’il a fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’accomplir son objectif. »

Depuis que cette histoire inquiétante a été partagée, un porte-parole de l’US Air Force a nié qu’une simulation de ce genre a eu lieu : « Le département de l’armée de l’air n’a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA. Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques. »

Par la suite, Tucker Hamilton a admis s’être mal exprimé lors de sa présentation. Il voulait plutôt expliquer que tout cela n’était qu’une « expérience de pensée ». « Nous n’avons jamais mené cette expérience, et nous n’en aurions pas besoin pour réaliser qu’il s’agit d’un résultat plausible. »

Pour rappel, en avril 2023, à cause des paroles du chatbot d’une intelligence artificielle, un homme s’est suicidé.

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments