Les intelligences artificielles narratives sont encore loin d’être parfaites. Bien qu’elles aient fait des progrès significatifs ces dernières années, il y a encore des défis à relever pour que les propos qui y découlent ne produisent pas des résultats horribles. Le dernier grand modèle de langage GPT-4 tenait des discours profondément insidieux et racistes avant d’être limité par OpenAi.
Aux grands maux les grands moyens
Après le succès fulgurant de ChatGPT, OpenAI a dévoilé une nouvelle version du logiciel de traitement du langage. Toutefois, cette fonctionnalité n’est pas encore opérationnelle et à ce stade, elle reste uniquement accessible à quelques testeurs en version payante et à quelques entreprises. De plus, OpenAI a été obligé d’extirper de ce nouveau modèle de langage, des mois avant sa publication, des éléments profondément problématiques.
Selon un rapport d’Insider, GPT-4 générait des contenus dangereux tels que la manière de fabriquer une bombe, des conseils sur la préparation d’attentats ou des discours vindicatifs. En d’autres termes, l’équipe rouge de l’OpenAI avait une mission gargantuesque à accomplir. Lors de leurs tests, ils ont réussi à soutirer des messages antisémites à GPT-4. Ces messages haineux passaient parfaitement malgré les filtres de contenu des réseaux sociaux. L’équipe rouge a aussi découvert des conseils sur la manière de diffuser des stéréotypes blessants ou d’attirer l’attention d’individus antisémites. GPT-4 s’est même plié à des demandes visant à trouver des moyens de tuer quelqu’un en faisant croire à un accident. Redoutant des IA hors de contrôle, les géants de la tech ont même appelé à suspendre leur développement.
GPT-4 doit être utilisé de manière responsable et éthique
Les intelligences artificielles narratives comme GPT-4 ont le potentiel de transformer la manière dont nous communiquons et interagissons avec la technologie. Elles peuvent être utilisées pour résoudre des problèmes complexes et améliorer notre qualité de vie. D’ailleurs, pour vanter les performances de GPT-4, OpenAI a déclaré que cette IA a obtenu un score de 90 % à un test pour devenir avocat aux États-Unis. GPT-3,5, lui, n’avait pas dépassé la note de 10 %, souligne l’entreprise. Les modèles de langage peuvent être utilisés pour une variété de tâches, telles que la génération de texte, la traduction, la reconnaissance de la parole et bien d’autres encore. Ces tâches peuvent avoir des implications significatives pour la société et peuvent être utilisées à des fins positives, mais aussi négatives.
Cependant, il est important de comprendre que les modèles de langage ne devraient pas être utilisés de manière abusive, par exemple pour propager de fausses informations, pour alimenter la haine et la discrimination, ou pour manipuler les opinions publiques. Par conséquent, il est crucial que les utilisateurs de ces modèles de langage, qu’il s’agisse d’entreprises, de gouvernements ou d’individus, prennent des mesures pour s’assurer que l’utilisation de ces technologies soit responsable et éthique. Cela peut inclure des mesures telles que l’évaluation des risques pour la société, la transparence sur la manière dont les données sont collectées et utilisées, la protection de la vie privée et la garantie que ces technologies ne sont pas utilisées pour véhiculer des messages racistes, sexistes ou autres problématiques.
Pour aller plus loin, découvrez pourquoi certains algorithmes sont racistes et sexistes.
Par Arielle Lovasoa, le
Source: Futurism
Étiquettes: racisme, intelligence artificielle
Catégories: Actualités, Robots & IA