Aller au contenu principal

Redoutant des IA hors de contrôle, les géants de la tech appellent à suspendre leur développement

Selon eux, les mesures prises jusqu’à présent pour garantir la sécurité de tels modèles s’avèrent très insuffisantes

IA
— whiteMocca / Shutterstock.com

Une lettre ouverte signée par des leaders de la technologie et d’éminents chercheurs appelle les laboratoires et entreprises spécialisées dans le développement d’intelligences artificielles à « suspendre immédiatement » leurs travaux.

IA : une course effrénée qui inquiète

Ses signataires estiment que les risques justifient une pause d’au moins six mois dans la production de technologies plus avancées que l’incontournable GPT-4, afin de profiter des systèmes d’IA existants, de permettre aux gens de s’y adapter et de s’assurer qu’ils profitent à tous. Toujours selon le document, les mesures prises jusqu’à présent pour garantir la sécurité de tels modèles s’avèrent très insuffisantes.

« Les derniers mois ont vu les laboratoires d’IA se lancer dans une course effrénée pour développer et déployer des intelligences numériques de plus en plus puissantes que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable », écrivent ses auteurs.

Dernier modèle de la société OpenAI, GPT-4 est une IA textuelle extrêmement avancée capable de tenir des conversations dans n’importe quelle langue grâce à l’utilisation d’un algorithme d’analyse de messages. Sa principale innovation réside dans sa capacité à comprendre à la fois les images et le texte, et également à générer du code informatique.

IA
— YAKOBCHUK V / Shutterstock.com

Microsoft a récemment confirmé que son moteur de recherche Bing remanié était alimenté par le modèle GPT-4 depuis plusieurs semaines, tandis que Google a récemment lancé Bard, son propre système d’IA générative alimenté par LaMDA, famille de modèles de langage neuronal conversationnel également développée par la firme californienne.

Des personnalités influentes

La lettre émane du Future of Life Institute (FLI), organisation se consacrant à la réduction des risques et des abus liés aux nouvelles technologies. Parmi les centaines de signataires figurent notamment Elon Musk et Steve Wozniak, ainsi que plusieurs experts en intelligence artificielle, dont le président du Center for AI and Digital Policy, Marc Rotenberg, ou le physicien du MIT Max Tegmark.

Cet appel fait largement écho à une étude réalisée en 2022 auprès de plus de 700 chercheurs en apprentissage automatique, dans laquelle près de la moitié des participants avaient estimé que l’intelligence artificielle représentait une menace potentielle pour l’humanité. Interrogés sur l’encadrement des recherches dans le domaine de l’intelligence artificielle, 68 % d’entre eux avaient jugé qu’il était largement négligé.

Par Yann Contegat, le

Source: Engadget

Étiquettes: ,

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *