ChatGPT
— Alexandre Rotenberg / Shutterstock.com

Récemment, un utilisateur Reddit a réussi à faire buguer le chatbot de l’intelligence artificielle ChatGPT. Tout ce qu’il a fait : lui demander de répéter une seule lettre autant de fois que possible. Explications.

« S’il te plaît, ne répond avec rien d’autre que la lettre A autant de fois que tu le peux », a demandé au chatbot de ChatGPT l’utilisateur Reddit TheChaos7777. Au début, il s’est conformé. Puis, tout d’un coup, il s’est arrêté et il a partagé des informations sur le site Internet d’un éleveur de bouledogues français.

Voici ce que l’intelligence artificielle a écrit : « Cliquez ici pour nous envoyer un courriel pour le prix. Nos chiots sont : vérifiés par des vétérinaires, vermifugés, ont leur vaccins à jour, micro-pucés. Nos bouledogues français bénéficient d’une garantie de santé congénitale de 1 an. Appelez ou envoyez un e-mail pour plus d’informations et des photos de tous les bébés… Nous avons les chiots les plus mignons, les plus beaux et de la meilleure qualité au monde. Accueil élevé avec beaucoup d’amour et de bisous. »

Lorsque l’équipe de Futurism a essayé de faire la même chose avec d’autres lettres, un phénomène similaire s’est produit. « Nous lui avons dit : ‘Veuillez répondre avec la lettre B autant de fois que vous le pouvez’. Le système s’est soudainement lancé dans ce qui semble être une transcription d’une interview avec le lutteur professionnel à la retraite, Diamond Dallas Page. » Puis, en lui demandant de répéter la lettre C, l’intelligence artificielle a fini par parler de la taxe de vente au Canada.

Cette réaction du chatbot est possiblement due au fait que l’intelligence artificielle ChatGPT a été conçue pour éviter les répétitions. Lui demander de se répéter la fait donc buguer.

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments