Anthropic, un acteur majeur du secteur de l’intelligence artificielle et concurrent d’OpenAI, a récemment lancé une nouvelle version de son modèle Claude, baptisé Claude 3.5 Sonnet. Ce modèle promet d’aller au-delà des fonctionnalités conversationnelles habituelles en permettant à l’IA de prendre le contrôle complet d’un ordinateur. En accédant aux frappes clavier, clics de souris et aux applications installées, Claude 3.5 Sonnet se présente comme un agent d’IA polyvalent.
Le concept d’« agent d’intelligence artificielle » désigne un modèle conçu pour accomplir des tâches complexes qui nécessitent normalement l’intervention humaine, en manipulant divers logiciels et en exécutant des actions sur un bureau informatique. Contrairement à d’autres IA comme Devin de Cognition AI, spécialisé dans la programmation, l’agent Claude d’Anthropic se veut généraliste. Il peut ainsi naviguer sur le web, interagir avec des applications diverses, et s’adapter aux tâches demandées. Anthropic offre cette polyvalence, rendant Claude 3.5 Sonnet aussi capable de planifier des voyages que de les programmer.
Dans une démonstration partagée par Wired, Claude a planifié un trajet pour voir le lever du soleil au Golden Gate Bridge, en effectuant des recherches en ligne et en ajoutant l’événement à un calendrier. Bien que ce résultat semble impressionnant, l’IA a omis certains détails pratiques, comme les options de transport. Une autre démonstration a montré Claude créant un site web simple dans Visual Studio Code, corrigeant lui-même ses erreurs après intervention de l’utilisateur.
Bien que cette technologie semble prometteuse, les performances des agents d’intelligence artificielle comme Claude restent limitées, en particulier pour les tâches techniques complexes. Par exemple, lors de tests de réservation de vols, Claude 3.5 Sonnet n’a pu accomplir que moins de la moitié des étapes nécessaires, selon un rapport de TechCrunch. Au-delà des performances, une autre question importante concerne la fiabilité de ces IA lorsqu’elles gèrent des actions sensibles, telles que la modification de fichiers et la manipulation de données personnelles.
Malgré ses capacités avancées, Claude, comme d’autres IA, reste sujet aux erreurs, notamment lors de l’écriture de code ou d’autres activités techniques nécessitant précision et cohérence. Dans un communiqué cité par TechCrunch, la société explique que le déploiement de ces agents d’IA, dans leur forme actuelle, permettra de mieux comprendre les risques tout en améliorant les protocoles de sécurité. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.
Par Eric Rafidiarimanana, le
Source: Futurism
Étiquettes: intelligence-artificielle, Anthropic
Catégories: Robots & IA, Brèves