
À peine lancé, GPT-5 inquiète déjà. Une étude révèle que les IA de dernière génération ont tendance à déformer les recherches scientifiques en les simplifiant trop. Un biais qui pourrait avoir des conséquences graves, notamment dans le domaine médical.
Une étude internationale met en lumière un risque croissant avec les nouvelles IA
La promesse de GPT-5 semblait claire : offrir un accès plus simple et plus précis à la connaissance. Pourtant, une étude publiée en avril dans la revue Royal Society Open Science dévoile un résultat surprenant. Plus les modèles sont récents, plus ils simplifient à outrance les résultats scientifiques.
L’équipe dirigée par Uwe Peters (université de Bonn) a analysé près de 5 000 résumés d’articles. Le constat est clair : ces modèles simplifient cinq fois plus que des experts humains. Pire encore, quand on leur demande d’être précis, ils produisent deux fois plus de généralisations abusives.
Un exemple illustre bien ce problème. Le modèle DeepSeek a transformé la formule prudente « était sûr et pouvait être réalisé avec succès » en une affirmation catégorique : « est une option de traitement sûre et efficace ». Ce changement en apparence mineur modifie pourtant profondément le sens du texte, surtout en médecine.
Comment la simplification de GPT-5 menace la précision médicale
En retirant des détails essentiels, ces IA peuvent changer la portée réelle d’une étude. Les chercheurs expliquent que certaines reformulations omettaient des données clés comme le dosage, la fréquence ou les effets secondaires d’un traitement. Ainsi, un lecteur non spécialiste pourrait en tirer de mauvaises conclusions.
Le modèle Llama, par exemple, a élargi à tort l’efficacité d’un médicament contre le diabète de type 2 chez les jeunes. Il a omis de préciser les conditions d’utilisation. Dans un contexte médical, ce type de raccourci est dangereux. Il peut mener à des prescriptions inappropriées et à la diffusion d’informations erronées.
Max Rollwage, spécialiste en IA appliquée à la santé mentale, prévient : « Les biais ne se résument pas à des erreurs visibles. Ils peuvent aussi gonfler discrètement la portée d’une affirmation. » Dans un environnement où GPT-5 pourrait intégrer les flux médicaux, cette tendance inquiète.
Des pistes pour limiter ces dérives et préserver la rigueur scientifique
Tous les modèles ne présentent pas ces faiblesses. L’étude révèle que Claude, développé par Anthropic, obtient de bons résultats. Cela prouve que le problème ne vient pas uniquement de la technologie, mais aussi de la manière dont elle est entraînée.
Selon Patricia Thaine, cofondatrice de Private AI, le cœur du problème vient des données d’entraînement. « De nombreux modèles apprennent à partir de journalisme scientifique simplifié, plutôt que sur des sources primaires. Ils héritent donc de ces raccourcis. »
Pour y remédier, les chercheurs recommandent d’intégrer des garde-fous capables de repérer les simplifications abusives. Ils encouragent aussi la création de modèles spécialisés par domaine et la supervision humaine dans les secteurs sensibles comme la médecine.
Uwe Peters avertit : « GPT-5 façonne déjà la manière dont le public comprend la science. Si nous ignorons ces biais, nous risquons une mauvaise interprétation massive, à un moment où la confiance dans la recherche est déjà fragile. »
Par Eric Rafidiarimanana, le
Étiquettes: ChatGPT, intelligence artificielle
Catégories: Actualités, Robots & IA