Être insulté par un robot nous affecte autant que d’être insulté par un humain

Cette étude a démontré que les critiques, d'où qu'elles viennent, réduisent nos performances

— Pair Srinrat / Shutterstock.com

Même s’ils nous semblent anodins et sans conséquence, les mots qu’on dit aux gens peuvent être involontairement blessants. Ils le sont d’autant plus lorsqu’on dit intentionnellement des injures à l’encontre de quelqu’un. En effet, les injures sont tellement blessantes qu’elles le restent même quand elles sont dites par des robots.

Le pouvoir des mots venant d’un robot

Il s’est en effet avéré que même les robots peuvent affecter les humains avec des insultes, et quand ils le font, cela nous rend tristes et improductifs. C’est du moins ce que disent les chercheurs de la Carnegie Mellon University qui ont publié les résultats d’une étude menée sur le sujet à l’aide des étudiants de l’Institut de robotique de l’université.

L’étude des chercheurs de la CMU a été réalisée en modifiant la programmation d’un de leurs robots humanoïdes qui a été produit par SoftBank Robotics. Nommé Pepper, le robot a été programmé pour qu’il puisse dire des insultes du type : « Je dois dire que vous êtes un très mauvais joueur. » L’expérience a été réalisée avec un groupe de 40 participants, qui ont joué avec le robot à un jeu appelé « Guards and Treasures », une version du jeu de stratégie Stackelberg qui est souvent utilisée pour étudier la rationalité.

Au cours de l’expérience, les participants ont joué 35 fois contre le robot ; certains ont été encouragés et ont reçu des commentaires positifs de la part du robot, tandis que d’autres étaient inondés de critiques négatives. L’expérience a clairement montré que la qualité de jeu des joueurs humains était affectée par les critiques négatives du robot, et ce même si le robot utilisait un langage très modéré. Et au contraire, les joueurs jouaient mieux lorsqu’ils étaient encouragés.

Par ailleurs, certains participants avaient suffisamment de connaissances techniques pour comprendre que les injures avaient été préprogrammées dans le robot. « Un participant a déclaré : je n’aime pas ce que dit le robot, mais c’est ainsi qu’il a été programmé, je ne peux donc pas l’en blâmer », a déclaré Aaron M. Roth, auteur principal de l’étude. Mais les chercheurs ont constaté que les performances humaines ont tout de même été affectées en fonction des commentaires du robot, quel que soit le niveau de technicité des joueurs.

Une étude en prévision des futurs développements en matière de robotique

Quant au but de cette étude, savoir qu’un robot peut affecter la rationalité humaine en quelques mots peut s’avérer extrêmement précieux ; dans la mesure où les intelligences artificielles s’intègrent davantage à notre société. « C’est l’une des premières études sur l’interaction homme-robot dans un environnement où ils ne coopèrent pas », a déclaré le coauteur de l’étude, Fei Fang, dans un communiqué de presse.

Dans cette optique, l’étude a été présentée le mois dernier à la Conférence internationale IEEE qui portait sur la communication interactive entre robots et humains (RO-MAN) à New Delhi, en Inde. Elle constitue une rupture avec les études classiques sur l’interaction homme-robot, qui tendent à se concentrer sur les moyens par lesquels les humains et les robots peuvent mieux travailler ensemble. Par ailleurs, cette étude a été réalisée suite à des recherches antérieures qui montraient que les insultes pouvaient réellement avoir un effet négatif sur la qualité de jeu des participants.

Le projet faisait aussi partie des études menées par les chercheurs dans le cadre du cours « Méthodes d’IA pour le bien social » de l’institut. Et bien que de nombreuses études et recherches restent à faire dans ce sens, les chercheurs ont déclaré que la « capacité de réponse rapide de Pepper pourrait avoir des conséquences sur l’apprentissage automatisé, le traitement de la santé mentale et même l’utilisation de robots comme compagnons ».

COMMENTEZ

Inscrivez-vous ou connectez-vous pour commenter
avatar
  S’abonner  
Notifier de