L’essor de l’intelligence artificielle (IA) marque un tournant dans la quête humaine de la connaissance. Une étude récente de l’Oxford Internet Institute, publiée dans Nature Human Behavior, met en lumière les défis et les implications de l’intégration de l’IA dans les processus scientifiques. Elle met en garde quant à l’utilisation de grands modèles de langage (LLM) dans la recherche scientifique.
Les chercheurs soulignent que les LLM, tels que les chatbots, bien que conçus pour produire des réponses utiles et convaincantes, ne garantissent pas toujours la véracité de leurs informations. En effet, la propension de l’IA à établir des faits et des hallucinations, combinée à la tendance humaine à anthropomorphiser les machines, peut conduire à des erreurs significatives dans la recherche scientifique. Les auteurs de l’article insistent sur le fait que les LLM ne sont pas principalement conçus pour l’exactitude des faits, mais plutôt pour l’utilité, l’efficacité et la satisfaction du client.
Comme le soulignent les chercheurs d’Oxford, la question des hallucinations de l’IA ne constitue pas la totalité du problème. L’effet Eliza, qui résulte de la prédisposition intrinsèquement mortelle à anthropomorphiser l’entourage, est un phénomène bien documenté où les humains interprètent de manière excessive les réponses à consonance humaine de l’IA. En raison de cet impact, les humains ont tendance à faire un peu trop confiance à l’IA. De plus, le ton confiant que ces chatbots adoptent souvent est propice à la désinformation.
Cependant, l’étude reconnaît que dans certains contextes, comme la « traduction sans erreur », les LLM peuvent être plus fiables. Il s’agit de la situation où un modèle reçoit « un ensemble d’entrées contenant des informations ou des données fiables, ainsi qu’une demande de faire quelque chose avec ces données », comme l’a précisé à EuroNews Brent Mittelstadt, professeur à Oxford et expert en éthique de l’IA. Dans ces scénarios, l’IA travaille avec des ensembles de données fiables et limités, ce qui réduit le risque d’erreurs.
Simultanément, les chercheurs soutiennent que l’argument de l’automatisation est en réalité une lutte idéologique. Après tout, la science est fondamentalement une entreprise humaine. Les Oxforders soutiennent qu’il serait préjudiciable à l’humanité de confier une part excessive du processus scientifique à une main-d’œuvre mécanisée par l’IA. Les chercheurs craignent que l’externalisation d’une grande partie du processus scientifique à l’IA puisse éroder des aspects essentiels de la science, tels que la pensée critique et la création de nouvelles idées. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.
l’IA est une menace pour tout le monde