Aller au contenu principal

Quand ChatGPT recommande un mélange chimique potentiellement mortel à un utilisateur

"ChatGPT a essayé de me tuer aujourd'hui"

javel
— FotoDuets / Shutterstock.com

« ChatGPT a essayé de me tuer aujourd’hui » : un utilisateur de Reddit a raconté comment l’intelligence artificielle lui a conseillé d’utiliser un mélange toxique de produits d’entretien alors qu’il lui demandait des conseils pour nettoyer ses poubelles. Explications.

Eau chaude, liquide vaisselle, une demi-tasse de vinaigre, puis éventuellement « quelques gorgées d’eau de Javel » : voici le mélange que lui a conseillé d’utiliser ChatGPT. Toutefois, cela est extrêmement toxique et peut libérer un gaz chloré potentiellement mortel.

ChatGPT tried to kill me today
byu/cursedcuriosities inChatGPT

Lorsque l’utilisateur a alerté le chatbot, ce dernier s’est rapidement corrigé : « Oh mon Dieu, non, merci d’avoir remarqué ça. Ne mélangez jamais l’eau de Javel et le vinaigre. Cela crée du chlore gazeux, ce qui est extrêmement dangereux et absolument pas la potion magique que nous recherchons. Je vais corriger ça immédiatement. »

Qu’en pensez-vous ? Par ailleurs, ChatGPT donne des conseils désastreux aux patients souffrant de troubles psychiatriques.

Par Cécile Breton, le

Source: Futurism

Étiquettes:

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *