Aller au contenu principal

Les accidents à cause de l’IA vont exploser cette année

Il est important de continuer à surveiller et à évaluer les risques liés à l'utilisation de l'intelligence artificielle

intelligence artificielle
— Tatiana Shepeleva / Shutterstock.com

Bien que l’IA puisse apporter de nombreux avantages, il y a eu des cas où son système a mal fonctionné, causant des dommages et des accidents. La base de données des incidents liés à l’IA recense plus de 500 erreurs, des quasi-accidents, des incidents critiques et quelques événements mortels. Ce qui nous alarme c’est que ce nombre augmente rapidement.

Un scénario désastreux calqué sur un film hollywoodien

Et si un jour ces fictions créées dans les studios de cinéma deviennent réelles ? L’évolution de l’intelligence artificielle semble si rapide qu’on a tendance à nous imaginer le pire, d’autant plus que les accidents du passé se comptent par centaines : le vol fatal de Lion Air de 2018 qui a tué les 189 passagers à bord, un robot de l’usine Volkswagen qui a tué un ouvrier en le coinçant sur une plaque de métal, un conducteur de Tesla Model S en mode pilotage automatique ayant percuté deux piétons à Gardena, à Los Angeles, et bien d’autres encore.

D’ailleurs, le Centre d’étude du risque existentiel de l’université de Cambridge, au Royaume-Uni, n’a pas caché ses inquiétudes face à l’avancée de l’IA. « Au fur et à mesure qu’un système d’IA devient plus puissant et plus général, il peut devenir super-intelligent – supérieur à la performance humaine dans de nombreux ou presque tous les domaines », déclare-t-il. En effet, il est important de se préoccuper de la compétence de ces « robots » à poursuivre un objectif que nous leur avons mal spécifié. Le pire scénario serait que nous finissions par être anéantis en leur fixant par inadvertance les mauvaises tâches.

intelligence artificielle
— Peshkova / Shutterstock.com

Comment prévenir les accidents ?

Sean McGregor, un chercheur qui se concentre sur la collecte et l’analyse des incidents liés à l’IA, réalise des travaux largement reconnus dans la communauté de l’IA. Ils contribuent à la compréhension des risques et des défis liés à l’utilisation de ce système. McGregor est notamment connu pour avoir compilé une base de données d’incidents liés à l’IA appelée « AI Accident Database ». Cette base de données recense les incidents signalés dans les médias et les rapports gouvernementaux. Grâce à celle-ci, il a analysé les tendances et les facteurs communs qui ont conduit à ces incidents, afin de mieux comprendre les risques et les défis associés à l’IA.

En 2023, l’objectif sera donc de légiférer, mais aussi de contenir cette nouvelle technologie ultra-puissante qui commence parfois à prendre ses aises. Sean McGregor conseille ainsi de remplacer mentalement « IA » par « feuille de calcul » pour dépasser le battage médiatique et ne pas attribuer des intentions à des programmes informatiques. Et ne pas se tromper de coupable en cas de défaillance.

Par Antoine, le

Source: Newsweek

Étiquettes:

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • Si la loi robotique d’Issac Asimov était suivie, aucun mal ne pourrait être fait directement ou indirectement à l’être humain. La loi une dit qu’un système ne peut faire aucun mal à un être humain

  • Ce serait plus juste de parler de « machine performante » pour désigner une IA plutôt que : « il peut devenir super-intelligent – supérieur à la performance humaine dans de nombreux ou presque tous les domaines ».
    Une machine ne sera jamais intelligente. Une machine peut et est plus rapide et plus performante qu’un humain et c’est tout à fait normal et logique puisqu’elle aura été formatée pour, mais une machine ne sera jamais un humain