Les chatbots comme ChatGPT ont tendance à mentir et à inventer des informations. D’après certains experts, cela ne peut être corrigé et ils sont condamnés à partager des mensonges. Explications.
« Je ne pense pas qu’il existe aujourd’hui un modèle qui ne souffre pas d’hallucinations », a déclaré à l’Associated Press Daniela Amodei, co-fondatrice et présidente d’Anthropic, fabricant du chatbot AI Claude 2. « Ils sont en quelque sorte conçus pour prédire le mot suivant. Et il y aura donc un certain rythme auquel le modèle le fera de manière inexacte. »
Alors que les entreprises explorent de nouvelles manières d’utiliser l’intelligence artificielle, elles pourraient être confrontées à des revers majeurs. « Ce n’est pas réparable », a expliqué à son tour à l’Associated Press Emily Bender, professeure de linguistique et directrice du laboratoire de linguistique informatique de l’université de Washington. « C’est inhérent à l’inadéquation entre la technologie et les cas d’utilisation proposés. Ce n’est que par hasard que le texte généré se révèle être interprétable comme quelque chose que nous jugeons correct. »
Les leaders de la technologie sont cependant optimistes. « Je pense que nous allons résoudre le problème des hallucinations dans un bien meilleur endroit », a rapporté le PDG d’OpenAI, Sam Altman. « Je pense que ça va nous prendre un an et demi, deux ans. Quelque chose comme ça. »
Pour rappel, les experts nous avertissent également que l’intelligence artificielle est utilisée pour vous espionner.
Par Cécile Breton, le
Source: Futurism
Étiquettes: mensonge, chatbots
Catégories: Robots & IA, Brèves