Aller au contenu principal

Les chatbots d’intelligence artificielle sont condamnés à nous mentir, selon les experts

"Je ne pense pas qu'il existe aujourd'hui un modèle qui ne souffre pas d'hallucinations"

chatbot-ia
— TippaPatt / Shutterstock.com

Les chatbots comme ChatGPT ont tendance à mentir et à inventer des informations. D’après certains experts, cela ne peut être corrigé et ils sont condamnés à partager des mensonges. Explications.

« Je ne pense pas qu’il existe aujourd’hui un modèle qui ne souffre pas d’hallucinations », a déclaré à l’Associated Press Daniela Amodei, co-fondatrice et présidente d’Anthropic, fabricant du chatbot AI Claude 2. « Ils sont en quelque sorte conçus pour prédire le mot suivant. Et il y aura donc un certain rythme auquel le modèle le fera de manière inexacte. »

Alors que les entreprises explorent de nouvelles manières d’utiliser l’intelligence artificielle, elles pourraient être confrontées à des revers majeurs. « Ce n’est pas réparable », a expliqué à son tour à l’Associated Press Emily Bender, professeure de linguistique et directrice du laboratoire de linguistique informatique de l’université de Washington. « C’est inhérent à l’inadéquation entre la technologie et les cas d’utilisation proposés. Ce n’est que par hasard que le texte généré se révèle être interprétable comme quelque chose que nous jugeons correct. »

Les leaders de la technologie sont cependant optimistes. « Je pense que nous allons résoudre le problème des hallucinations dans un bien meilleur endroit », a rapporté le PDG d’OpenAI, Sam Altman. « Je pense que ça va nous prendre un an et demi, deux ans. Quelque chose comme ça. »

Pour rappel, les experts nous avertissent également que l’intelligence artificielle est utilisée pour vous espionner.

Par Cécile Breton, le

Source: Futurism

Étiquettes: ,

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *