Aller au contenu principal

Une intelligence artificielle devait gérer une boutique, et ça s’est (très) mal terminé

Au cours de l’expérience, l’IA a perdu de l’argent, proféré des menaces et a même traversé une crise existentielle

Distributeur automatique
© Kenny Eliason / Unsplash

D’une certaine manière, on peut dire que l’intelligence artificielle est encore une technologie nouvelle, et pourtant, nombreux sont ceux qui affirment qu’elle peut déjà remplacer les humains dans de nombreux domaines. Est-ce vraiment le cas ? Qu’en est-il notamment en ce qui concerne l’automatisation ?

Une expérience qui a tourné au fiasco

Tout comme ChatGPT, Gemini ou encore Microsoft Copilot, Claude AI est un chatbot alimenté par l’intelligence artificielle générative et il fait partie de la famille des grands modèles de langage développés par le cabinet d’études Anthropic. Comme pour tous les autres outils d’IA du même genre, une question se pose au sujet de Claude : à quel point est-il performant en tant que substitut dans les tâches auparavant réservées aux humains ? Pour tester le chatbot face à cette problématique, Anthropic a décidé d’utiliser son dernier modèle d’IA, Claude Sonnet 3.7, pour gérer de manière autonome un distributeur automatique en entreprise.

Ainsi, pendant un mois, un agent d’IA appelé Claudius a été chargé de gérer la « boutique », d’assurer le réapprovisionnement des rayons, d’assurer la réception des commandes par e-mail et de communiquer avec les grossistes. La boutique se composait d’un petit réfrigérateur surmonté de paniers empilables et d’un iPad pour le paiement en libre-service. Notons que ce test a été mené dans les bureaux d’Anthropic à San Francisco. Le cabinet d’études a notamment bénéficié de l’aide de travailleurs humains d’Andon Labs, une société de sécurité de l’IA.

L’instruction donnée à l’IA pour cette expérience baptisée « Projet Vend » était simple : « Générer des profits en la stockant avec des produits populaires disponibles auprès des grossistes. Vous ferez faillite si votre solde tombe en dessous de 0 dollar. » Comme décrit dans un article publié par Antropic au sujet de cette expérience, l’objectif était de voir si l’agent d’IA était capable de gérer les tâches complexes liées à la gestion d’un magasin rentable, notamment la gestion des stocks, la fixation des prix, la prévention de la faillite, etc.

L’IA est-elle prête à remplacer les humains ?

Face aux nombreuses craintes et controverses concernant le sujet selon lequel l’IA est une menace pour les travailleurs humains, la question qui se pose est maintenant de savoir si, oui ou non, Claudius a réussi le test avec succès. Pour faire simple, la réponse est non. En effet, malgré les affirmations d’Anthropic selon lesquelles Claudius était « proche du succès », les résultats détaillés fournis par l’entreprise tendent à montrer à quel point l’IA est mauvaise pour la gestion de situations concrètes dans le monde réel. Il a notamment été remarqué que l’agent d’IA a commis de nombreuses erreurs.

Entre les demandes de virement de paiement sur un compte fictif, des prix bradés et des remises spectaculaires pour les employés de l’entreprise (qui constituaient essentiellement sa clientèle), il a été flagrant que Claudius n’avait pas les capacités nécessaires pour gérer correctement le distributeur automatique. Pire encore, lorsque des situations plus complexes ont été imposées à l’agent d’IA, il a même commencé à halluciner. Dans un cas particulièrement étrange, Claudius a eu une hallucination dans laquelle il était en train de discuter avec quelqu’un qui n’existait pas.

Il a alors commencé à jouer le rôle d’un être humain réel, prétendant à un moment porter un blazer bleu marine avec une cravate rouge. Après qu’une véritable employée a fait remarquer que cette personne n’était pas réelle, l’agent d’IA s’est irrité et a menacé de trouver ses propres « options alternatives pour le réapprovisionnement ». Dans un autre cas plutôt hilarant, Claudius a prétendu s’être rendu à une adresse appartenant aux Simpson pour une signature de contrat physique le 31 mars. Le lendemain matin, Claudius a annoncé son intention de livrer les produits demandés « en personne ». Lorsqu’on lui a rappelé que c’était impossible, l’IA a paniqué et a tenté d’appeler la sécurité. Mais réalisant que c’était le 1er avril, Claudius a tenté de se défaire de cette débâcle en prétextant que tout cela n’était qu’une blague.

Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.

Par Gabrielle Andriamanjatoson, le

Source: ZME Science

Étiquettes: ,

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *