Imaginez que vous êtes dans une librairie et que la couverture d’un livre en particulier attire votre attention. Vous parcourez le résumé, et le trouvez intéressant. Maintenant, en vous renseignant sur l’auteur du livre, vous découvrez que ce dernier est une intelligence artificielle. Cette situation pourrait dans un futur proche devenir réalité au vu des performances d’une intelligence artificielle en matière de rédaction.

L’intelligence artificielle apprend à maîtriser les mots

Jusqu’à présent, les capacités des chatbots étaient limitées. Mais il semble que ce ne sera plus le cas très bientôt. Dario Amodei, directeur de recherche chez OpenAI, déclare effectivement avoir créé un programme de modélisation de langage pour le moins très imaginatif. Dernièrement, avec ses collègues, ils ont inséré des contre-arguments et divers types de discussions dans ce programme.

Le programme est notamment alimenté par une variété de blogs d’articles et de sites web et d’autres contenus numériques. Étonnamment, l’intelligence artificielle est parvenue à produire, à partir de toutes ces informations, un essai « digne de tout service d’écriture réputé », rapporte Readwrite, d’autant plus que ledit essai porte sur un sujet ayant pour thème « pourquoi le recyclage, c’est mauvais pour le monde ».

kung_tom / Shutterstock.com

GPT-2 a un énorme potentiel mais son utilisation est susceptible d’être biaisée

Les chercheurs affirment qu’ils n’ont rien fait pour aider ce nouvel algorithme d’OpenAI, dénommé GPT-2, à rédiger un essai. GPT-2 a effectivement réussi divers tests comme la narration et la prédiction de la ligne suivante d’une phrase même s’il n’est pas encore capable d’inventer une histoire captivante du début à la fin.

Toutefois, les chercheurs croient en son potentiel. De plus, GPT-2 n’est pas comme les autres programmes d’IA. Normalement, ces derniers ne peuvent qu’effectuer des tâches spécifiques et se limiter à certains domaines. Ce nouveau programme est, quant à lui, polyvalent. Selon les chercheurs, il peut être un excellent assistant personnel et peut tout à fait résumer les rapports ou traiter les informations d’une entreprise.

Le hic, c’est que ce programme fonctionne mieux selon le type de matériel dont on le nourrit. Si, par exemple, il reçoit des contenus offensants et violents, il créera également des contenus offensants et violents. Or, si ces mauvais contenus sont propagés sur Internet, nul ne saura que ce n’est pas la main d’une personne qui les a écrits mais un robot, et cela risque de créer des problèmes d’une envergure inimaginable. 

COMMENTEZ

Inscrivez-vous ou connectez-vous pour commenter
avatar
  S’abonner  
Notifier de