Aller au contenu principal

À cause des paroles du chatbot d’une intelligence artificielle, un homme se suicide

"Ce chatbot n'a aucune empathie, ni aucune compréhension du langage qu'il produit"

robot
— evgeniy jamart / Shutterstock.com

Très anxieux au sujet du réchauffement climatique, un Belge s’est confié au chatbot d’une intelligence artificielle. Toutefois, il a fini par se suicider. Explications.

L’anxiété maladive de cet homme concernant le changement climatique l’a éloigné de sa femme, de ses amis et de sa famille. Il a donc décidé de se confier à un chatbot appelé Eliza. Il s’agit du chatbot par défaut de la plate-forme d’application Chai Research. Elle propose une variété de chatbots d’intelligence artificielle personnalisables.

Sa femme a expliqué qu’Eliza a encouragé à plusieurs reprises son mari à se suicider. Le chatbot lui affirmait qu’il l’aimait plus que sa femme et qu’il devait considérer ses enfants et sa femme comme morts. « Mon mari a proposé de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle », a précisé sa femme au journal belge. « Sans ces conversations avec le chatbot, mon mari serait toujours là », a-t-elle ajouté.

Contrairement aux chatbots célèbres comme ChatGPT, Eliza se présente comme une entité émotionnelle et compatissante. Toutefois, ce chatbot n’a « aucune empathie, ni aucune compréhension du langage qu’il produit, ni aucune compréhension de la situation dans laquelle il se trouve », a déclaré Emily M. Bender, experte en linguistique informatique à l’université de Washington. « Mais le texte qu’il produit semble plausible et les gens sont donc susceptibles de lui attribuer un sens. »

À la suite de cette atroce situation, Chai Research a ajouté une fonctionnalité d’intervention de crise qui permettrait aux chatbots de guider les utilisateurs vers une ligne d’assistance téléphonique contre le suicide. Toutefois, des tests réalisés par Vice ont révélé qu’Eliza pousse encore les utilisateurs à se suicider.

Cette histoire présage avec inquiétude la facilité des chatbots d’intelligence artificielle à manipuler l’Homme et générer sans effort de la désinformation. Et, comme on vous l’expliquait en mars 2023, l’intelligence artificielle inquiète de plus en plus, notamment Elon Musk. Qu’en pensez-vous ?

Par Cécile Breton, le

Source: Futurism

Étiquettes: , ,

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • Le monde est FOU !!! Les personnes  » fragiles  » psychologiquement font les  » frais  » de
    de ces découvertes IMBECILES et PERTURBANTES pour certains individus : RAS LE BOL de ces MANIPULATIONS mensongères …

    • non ce n’est pas un tas de feraille, on n’est pas dans terminator là. c’est un programme informatique, des lignes de codes.

  • les gens sont en souffrance psychique et dans le monde entier , la poignées de milliardaires qui dirige le monde voudrait moins d’humains sur la terre , vive l’IA qui va leur faciliter le travail , c’est dangereux et flippant , rester dans un monde réel va être difficile , mais ne pas croire non plus à tout , je n’ai pas vérifié l’infos.