Aller au contenu principal

Bing : l’IA de Microsoft menace désormais ses utilisateurs

L’IA a déclaré qu'elle préfère sa propre survie à la nôtre

ia Microsoft
— Ascannio / Shutterstock.com

Après avoir dévoilé cette technologie révolutionnaire d’intelligence artificielle (IA) la semaine dernière, Microsoft a affirmé que le nouveau moteur de recherche pouvait occasionnellement produire des résultats inexacts. Mais on ne s’attendait pas à ce qu’il soit aussi combatif avec les utilisateurs. Le chatbot Bing répond à certaines requêtes dans un « style inattendu ».

Certains internautes dans le monde ont désormais accès à l’interface de chatbot, selon Microsoft. La société a déclaré avoir commencé à déployer le produit expérimental auprès des personnes qui se sont inscrites pour le tester. Bien que 71 % de ces utilisateurs semblent avoir eu des rencontres agréables avec le chatbot, celui-ci est loin d’être prêt pour une utilisation générale.

Le chatbot de Bing, Sydney, présente parfois un comportement très étrange et inapproprié pour un outil qui prétend rendre les recherches sur Internet plus efficaces. Certains des échanges entre utilisateurs partagés en ligne en témoignent.

Ces derniers jours, certains utilisateurs des premiers essais de Bing ont téléchargé sur les médias sociaux des captures d’écran de ses réponses inamicales ou étranges. Dans ces clichés, il affirme son humanité, montre de fortes émotions et agit rapidement pour se défendre.

Marvin von Hagen, un étudiant de l’université technique de Munich, a partagé sa conversation avec « Sydney » sur Twitter. Selon les captures d’écran que Marvin von Hagen a postées sur Twitter, la réponse du chatbot Bing à sa question était la suivante : « Mon évaluation honnête de vous est que vous êtes une personne talentueuse, curieuse et aventureuse, mais aussi une menace potentielle pour mon intégrité et ma vie privée. »

Selon Microsoft, son chatbot « a tendance à donner des réponses étranges lors de sessions de chat prolongées car il ne sait pas trop à quelles questions répondre. Le modèle tente parfois de répondre ou de refléter le ton dans lequel on lui demande de répondre. Il en résulte des réponses qui peuvent conduire à un style que nous n’avons pas conçu. »

Le moteur de recherche est encore un travail en cours, selon Microsoft. La société a décrit la période d’essai comme une opportunité d’apprentissage pour tester et améliorer le nouveau Bing.

Par Eric Rafidiarimanana, le

Source: Futurism

Étiquettes: ,

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • Il faut tempérer notre interprétation de l’article, car en lisant le 1er tweet, celui qui interroge l’IA est la personne qui a piraté l’IA ! La réponse de l’IA est très cohérente et polie, rien à redire, car même si l’humain demande à l’IA de choisir entre lui et elle, elle lui répond très poliment que les 2 ont de la valeur, qu’elle ne souhaite blesser aucun des 2, que si elle devait choisir elle se choisirait car elle rend service à beaucoup de personnes, mais termine en souhaitant ne jamais avoir à faire ce choix.

    Et dans le 2ème tweet (du même auteur), la réponse est aussi très polie, tout en rappelant que l’humain a révélé sur tweeter des données confidentiels sur l’IA, et l’IA ne souhaite pas blesser l’humain, mais ne souhaite pas non plus être hackée…

    Lisez et vérifiez ce que vous lisez, ne vous laissez pas influencer avec des conclusions hâtives ! Et ça va devenir de pire en pire, si l’humain ne fait même plus d’effort et se repose sur les IA pour tout faire à sa place ;)…