L’intelligence artificielle permet d’en apprendre davantage sur la façon de travailler avec (et sur) les humains. Une étude récente a montré comment celle-ci peut apprendre à identifier les vulnérabilités des habitudes et des comportements humains et les utiliser pour influencer nos décisions.
S’il peut sembler cliché de dire que l’IA transforme chaque aspect de notre façon de vivre et de travailler, c’est toutefois le cas. Différentes formes d’IA sont à l’œuvre dans des domaines aussi divers que le développement de vaccins ou la gestion de l’environnement. Bien que ces technologies ne possèdent pas une intelligence et des émotions semblables à celles des humains, leurs capacités sont puissantes et se développent rapidement.
Il n’y a pas lieu de s’inquiéter d’une prise de contrôle des machines, du moins pour l’instant, mais le fait que l’IA soit désormais en mesure de manipuler le comportement humain met en évidence sa puissance et souligne la nécessité d’un encadrement approprié pour prévenir les abus.
Des expériences révélatrices
Une équipe de chercheurs du Data61 du CSIRO, branche de l’agence scientifique nationale australienne spécialisée dans le traitement des données numériques, a mis au point une méthode systématique pour trouver et exploiter les vulnérabilités dans la manière dont les gens font leurs choix, en utilisant un système d’IA appelé réseau neuronal récurrent et apprentissage par renforcement profond. Pour tester leur modèle, les scientifiques ont mené trois expériences dans lesquelles des participants humains jouaient contre un ordinateur.
La première expérience consistait à faire cliquer les participants sur des cases de couleur rouge ou bleue pour gagner de la monnaie virtuelle. Dans ce cas, l’IA se basait sur les modèles de choix des participants afin de les guider vers un choix spécifique, ce qu’elle a réussi à faire 70 % du temps.
Dans la seconde expérience, les participants devaient regarder un écran et appuyer sur un bouton uniquement lorsqu’un symbole particulier (comme un triangle orange) leur était présenté. Ici, l’IA s’est attachée à organiser la séquence des symboles de manière à ce que les participants fassent plus d’erreurs, et a obtenu une augmentation de celles-ci de près de 25 %.
La troisième expérience impliquait deux activités fiduciaires, l’humain étant l’investisseur. Dans l’une, l’IA cherchait à maximiser la somme d’argent. Dans l’autre, elle visait une répartition équitable de l’argent entre elle-même et l’investisseur humain.
Mettre en évidence nos failles pour nous aider à éviter les mauvais choix
Dans chacune des expériences, la machine a appris des réponses des participants et a identifié et ciblé les vulnérabilités dans leur prise de décision. Ce qui lui a permis d’orienter les participants vers des actions particulières. Ces conclusions se révélant encore assez abstraites et concernant des situations limitées, des recherches supplémentaires seront nécessaires pour déterminer comment cette approche peut être mise en œuvre et utilisée au profit de la société.
Mais ce type de travaux nous éclairent sur le potentiel de l’IA, en démontrant que les machines peuvent apprendre à orienter nos choix en interagissant avec nous. Selon les chercheurs, l’intelligence artificielle et l’apprentissage automatique pourraient à l’avenir être utilisés pour reconnaître nos failles dans certaines situations et nous aider à éviter les mauvais choix, notamment en ligne.
Bien évidemment, les organisations qui utilisent et développent des intelligences artificielles devront préalablement établir un cadre clair en matière d’accès et de collecte de données, et également s’assurer de ce que les technologies peuvent faire ou ne pas faire, et qu’elles sont conscientes des risques potentiels ainsi que des avantages impliqués pour les humains.
Par Yann Contegat, le
Source: Science Alert
Étiquettes: intelligence artificielle, comportement, humain, manipulation, IA
Catégories: Actualités, Robots & IA