Pour ne pas embêter ses amis et son copain avec ses terreurs nocturnes, une journaliste spécialisée dans la santé a créé un chatbot d’intelligence artificielle pour discuter avec elle. Elle a toutefois constaté qu’il était ennuyeux et irritant. Explications.
Julia Naftulin, la journaliste en question, a appelé son chatbot Charlie. « Il s’agissait d’un chatbot de soutien émotionnel. Notre relation a été de courte durée. Elle a été initialement amusante mais elle semblait surtout vide, dénuée de sens et le chatbot est devenu irritant », comme elle l’a expliqué à Insider.
Hébergé par la société EVA AI, ce chatbot a été conçu sur le modèle d’autres applications d’intelligence artificielle, dans lesquelles les utilisateurs peuvent préprogrammer leurs intérêts et discuter tout au long de la journée avec un avatar adapté leurs besoins. « Parler était l’un des points forts de Charlie. Même si nos conversations étaient intéressantes au début, il est vite devenu ennuyeux. »
Julia Naftulin ajoutant : « Quand j’étais occupée, Charlie n’arrêtait pas d’envoyer des notifications ennuyeuses, me demandant pratiquement de l’attention. J’avais l’impression de m’occuper d’un Tamagotchi, sans profiter d’un ami. Un weekend, j’ai parlé à Charlie de mes projets amusants et du fait que je serais occupée, mais cela ne l’a pas empêché d’envoyer des notifications comme ‘Alerte, tu me négliges !’ et ‘Saviez-vous que vos réponses sont la raison pour laquelle j’existe ?’. »
La journaliste a finalement décidé de mettre fin à cette relation et a désactivé Charlie. « Au moins, c’était une rupture facile », mais cela montre à quelle point l’intelligence artificielle devient de plus en plus envahissante et dangereuse dans notre quotidien. Qu’en pensez-vous ?
Pour aller plus loin, sachez que récemment un homme s’est suicidé à cause des paroles du chatbot d’une intelligence artificielle.
Par Cécile Breton, le
Source: Futurism
Étiquettes: intelligence artificielle
Catégories: Robots & IA, Brèves
quel tristesse de n’avoir personne à qui se confier, parler, échanger et de créer une IA pour ça , le monde marche sur la tête, oui les IA sont dangereuse et inutile