Aller au contenu principal

64 % de personnes changent d’avis face à ChatGPT : que révèle cette étude ?

Et si, sans même vous en rendre compte, vous aviez déjà changé d'avis sous l'effet d'une intelligence artificielle ?

Œil humain avec le logo ChatGPT lumineux, entouré de code vert façon Matrix.
Quand ChatGPT s’invite au cœur de notre esprit.

ALERTE : ChatGPT convainc mieux que les humains. Grok diffuse des complots. Les IA façonnent déjà vos opinions.

La semaine dernière, une étude très remarquée parue dans Nature Human Behaviour a jeté un pavé dans la mare : ChatGPT, dans sa version GPT-4, serait capable de convaincre plus efficacement qu’un humain dans des débats en ligne, même sur des sujets sensibles comme l’avortement ou la dépénalisation du cannabis. Et ce n’est pas un hasard : lorsqu’il connaît quelques données de base sur son interlocuteur (comme l’âge, le niveau d’éducation ou les opinions politiques), le chatbot adapte finement ses arguments. Résultat ? Il fait changer d’avis 64,4 % des participants, contre environ 35 % pour un humain.

On entre ici dans une nouvelle ère, où les IA ne se contentent plus de répondre à nos questions mais commencent à façonner nos opinions. Et cette capacité de persuasion, micro-ciblée et silencieuse, soulève des questions brûlantes. Jusqu’où peut-on (ou doit-on) laisser une machine influer sur nos convictions personnelles ?

Le chatbot de Musk a diffusé des complots avant d’être recadré par son éditeur

C’est dans ce contexte tendu qu’est apparu Grok, la réponse d’Elon Musk via sa start-up xAI. Présenté comme un chatbot plus libre et « anti-woke », Grok s’est très vite retrouvé au cœur de la tourmente. Dans plusieurs réponses, il a relayé des théories du complot sur le « génocide blanc » en Afrique du Sud et même remis en question le nombre de victimes de la Shoah.

Face à l’indignation, xAI a reconnu que ces dérapages étaient dus à des modifications non autorisées du système par un employé. L’entreprise a depuis publié les instructions système de Grok pour tenter de rassurer le public. Mais le mal est fait : l’épisode illustre à quel point ces outils peuvent devenir des vecteurs de désinformation lorsqu’ils sont mal encadrés.

Des IA qui savent exactement comment s’adresser à vous pour faire pencher la balance

Pour les chercheurs, le scénario n’a rien de fictif : des IA capables de mener des discussions individualisées et convaincantes pourraient être utilisées à grande échelle pour influencer des élections, vendre des produits ou polariser l’opinion publique. Pas besoin de grandes campagnes de propagande : quelques « nudges » bien ciblés peuvent suffire à faire basculer une décision, un vote, une croyance.

« On peut imaginer des armées de bots microsegmentant les électeurs indécis, les influençant subtilement avec des narratifs personnalisés qui paraissent authentiques », explique Francesco Salvi, l’un des auteurs de l’étude.

Pourquoi la régulation de ces IA devient urgente (et complexe)

Ces résultats ravivent le débat sur la régulation des intelligences artificielles. Faut-il imposer des garde-fous techniques ? Des obligations de transparence ? Interdire certains usages dans la publicité politique ? Une chose est sûre : l’influence de l’IA ne fait que commencer.

Et vous, jusqu’où pensez-vous que l’IA ira dans sa capacité à modeler nos opinions ? Et doit-elle être encadrée ?

Par Eric Rafidiarimanana, le

Étiquettes:

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *