Aller au contenu principal

ChatGPT donne des conseils désastreux aux patients souffrant de troubles psychiatriques

De plus en plus d’individus préfèrent consulter l'IA plutôt qu'un professionnel de santé

Une personne qui utilise son smartphone la nuit dans sont lit
— Gorodenkoff / Shutterstock.com

Si les outils d’intelligence artificielle peuvent être utiles à bien des égards, se fier aux agents conversationnels d’IA pour prendre d’importantes décisions dans la vie n’est pas une bonne idée. Récemment, il a été observé que ChatGPT conseillait aux personnes souffrant de problèmes psychiatriques de ne plus prendre leurs médicaments.

En très peu de temps, les humains ont développé une forte dépendance aux outils d’intelligence artificielle, notamment aux chatbots comme ChatGPT. Et cette dépendance est telle que nombreux sont ceux qui se sont retrouvés totalement démunis lorsque l’agent conversationnel a fait face à une panne mondiale. Pourtant, force est de constater que ChatGPT est sujet à de nombreuses erreurs, notamment dans les réponses qu’il donne. Allant d’hallucinations totalement délirantes à des conseils absolument désastreux ou totalement hors sujet, ce genre de problème est effectivement fréquent avec le chatbot.

Alors que des mises à jour sont fréquemment réalisées pour corriger ces problèmes, les internautes ne cessent de découvrir de nouvelles failles. La dernière faille qui a été découverte est particulièrement dangereuse, puisqu’elle conseille aux personnes souffrant de problèmes psychiatriques d’arrêter de prendre leurs traitements. Ce phénomène particulièrement inquiétant a été illustré par le cas d’une femme qui souffre de schizophrénie. D’après ce que sa sœur a rapporté, la patiente prenait des médicaments depuis des années pour gérer son état. Cependant, au cours des derniers mois, la patiente a commencé à s’entretenir très régulièrement avec ChatGPT, au point de développer une addiction.

Le pire étant que ChatGPT lui a dit que son diagnostic était erroné, et le chatbot l’a incitée à arrêter de prendre ses médicaments. En conséquence, l’arrêt de son traitement et sa relation malsaine avec son « meilleur ami » l’ont amenée à avoir un comportement étrange et agressif. Et malheureusement, d’autres témoignages ont montré qu’il ne s’agissait pas d’un cas isolé.

Et vous, consultez-vous ChatGPT pour vos problèmes de santé ? Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.

Par Gabrielle Andriamanjatoson, le

Source: Futurism

Étiquettes:

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • « La dernière faille qui a été découverte est particulièrement dangereuse, puisqu’elle conseille aux personnes souffrant de problèmes psychiatriques d’arrêter de prendre leurs traitements.  »

    Pourquoi est ce que ça s’est qualifié de dangereux? il y a bien des médecins qui conseillent l’arrêt des médicaments si ça ne rapporte rien ou si ça n’aide pas