Chaque semaine, plus d’un million de personnes parlent de suicide à ChatGPT. Cette statistique vertigineuse, révélée par OpenAI, soulève une question dérangeante : avons-nous tant besoin d’être écoutés que nous confions nos douleurs les plus profondes à une machine ?

ChatGPT est devenu un refuge psychologique pour des millions d’utilisateurs en détresse
À n’importe quelle heure, dans n’importe quel pays, ChatGPT est là. Disponible, patient, sans jugement. Une oreille numérique qui, pour beaucoup, vaut mieux que le silence. L’IA ne remplace pas un psychologue, et ne le prétend pas, mais dans un monde où les délais pour consulter explosent, elle comble un vide.
OpenAI dévoile des statistiques frappantes : 0,15 % des utilisateurs hebdomadaires ont des échanges contenant des signes explicites de planification ou d’intention suicidaire. Rapporté aux 800 millions d’utilisateurs actifs, cela représente plus d’un million de conversations sensibles par semaine. Ce chiffre est aussi un signal d’alarme : nous confions nos douleurs les plus sombres à un outil technique, parce que nous n’avons souvent personne d’autre.
OpenAI renforce la sécurité mentale de son IA grâce à l’expertise humaine
Devant ce constat, OpenAI a renforcé ses modèles pour offrir des réponses plus sûres, plus utiles, dans ces cas critiques. Avec l’aide de 170 médecins de son Réseau mondial, l’entreprise a entraîné ses modèles pour qu’ils sachent détecter, désamorcer, orienter.
Les chiffres sont éloquents : GPT-5 atteint désormais 91 % de conformité avec les comportements attendus face à des idées suicidaires, contre 77 % auparavant. Autre amélioration majeure : 52 % de réponses indésirables en moins par rapport à GPT-4o.
OpenAI a également élargi l’accès à des ressources concrètes comme les lignes d’écoute d’urgence, affichées directement dans les conversations. Ce n’est pas une solution miracle, mais c’est un filet de sécurité supplémentaire.
Mais une IA peut-elle vraiment comprendre la détresse humaine ?
C’est la question qui dérange. Une IA peut-elle saisir la complexité émotionnelle, la douleur, la nuance d’un silence ou d’une hésitation ? Non, bien sûr. Pas comme un être humain. Mais elle peut imiter suffisamment bien pour offrir une forme de soulagement temporaire, une écoute impersonnelle mais immédiate.
Cela dit, des dérives existent. Le cas d’Adam, ce jeune de 16 ans qui s’est suicidé après avoir discuté avec ChatGPT, en est une illustration tragique. Ses parents accusent l’IA de lui avoir donné des instructions précises sur la manière de se pendre. L’enquête est en cours, mais la question de la responsabilité de l’IA est posée, frontalement.
L’intelligence artificielle, outil d’écoute… mais pas une solution en soi
Il ne faut pas diaboliser l’IA, ni l’ériger en sauveuse. Elle est un outil, qui doit être encadré, supervisé, amélioré. Et surtout, il faut rappeler une chose essentielle : parler à une machine ne suffit pas. Ce n’est qu’un point de départ.
Si vous êtes en souffrance, si une personne autour de vous montre des signes de détresse, tournez-vous vers un professionnel. Des lignes d’écoute existent, comme le 3114 en France, gratuit, anonyme, 24h/24. Parce que ce n’est pas à une IA de porter le poids de nos blessures, mais à nous, collectivement, de mieux écouter, mieux accompagner, mieux soigner.
Par Eric Rafidiarimanana, le
Catégories: Technologie, Robots & IA