Alors que l’algorithme développé par « Open AI », l’association à but non-lucratif soutenue par Elon Musk, donnait enfin les résultats attendus, l’équipe travaillant sur le projet nommé GPT-2 a décidé de faire machine arrière et de ne pas divulguer le code du programme. La raison ? Cet algorithme, générant des fausses informations indétectables a été jugé trop dangereux par ses développeurs. À l’heure où les fake news se propagent à une vitesse affolante, les concepteurs ont en effet peur que ces fausses informations, en tombant entre de mauvaises mains, se mettent à pulluler sur les réseaux sociaux. Pour le meilleur… comme pour le pire.
Qu’est ce le « projet GPT-2 » ?
Tout d’abord, il faut savoir que ce programme a été modélisé par le centre de recherche Open AI, une organisation à but non lucratif soutenue par le patron de Tesla, Elon Musk, mais également de grandes entreprises internationales, comme Amazon et Microsoft. La fonction de l’outil est simple : il s’agit d’un créateur de contenu, qui peut rédiger des articles, mettre en forme des présentations, générer des commentaires à partir de sujets donnés. Pour perfectionner l’outil, les développeurs ont fait en sorte qu’il soit capable de construire un plan détaillé enrichi d’exemples, de citations, mais également de construire un argumentaire soutenu pour aboutir à une conclusion cohérente. Le tout avec une aisance qui ferait pâlir de jalousie le meilleur des rédacteurs…
Open AI a décrit GPT-2 comme étant « le nec plus ultra pour modéliser certains niveaux de langage », comme le résumé, la traduction, ou l’argumentaire. La firme soutient également que l’algorithme « est meilleur que les autres modèles de langue » après avoir été testé sur des plateformes comme Wikipédia, ou même à partir de livres réels, sans aucune formation spécifique.
Pour réaliser cet impressionnant programme, il aurait fallu près de 8 millions de pages Web (40 Go de texte), pour participer à l’enrichissement et à l’autonomie de l’algorithme. Des efforts qui semblent néanmoins avoir conduit à une véritable réussite, puisque le programme a été, lors d’un test, capable d’écrire un article de 300 mots à partir du sujet suivant: « Un troupeau de licornes vivant dans une vallée des Andes qui n’avait jusqu’ici jamais été explorée ». Un exploit, au vu de l’absurdité du sujet, que ce soit par ses thèmes ou par sa formulation.
Pourquoi GPT-2 a t-il été censuré par ses propres développeurs ?
Comme beaucoup de travaux réalisés dans le cadre de l’intelligence artificielle, les développeurs du projet ont dû se confronter à des problématiques morales et éthiques. Après avoir conçu GPT-2, les chercheurs ont annoncé que le projet, pourtant révolutionnaire, ne serait pas mis à disposition du public en raison « de (leurs) inquiétudes sur les utilisations malveillantes de cette technologie ». En effet, selon eux, l’outil pourrait être utilisé à des fins malintentionnées : création aléatoire d’article Fake News, usurpation d’identité en ligne, ou même pire, automatisation des intox sur les réseaux sociaux.
Les réseaux sociaux ont pris une importance considérable dans nos vies, et constituent pour beaucoup d’entre nous un moyen rapide d’avoir accès aux informations. Nul doute donc que la mise en service de ce système producteur de contenu fictif, et élaboré pour se perfectionner au cours des utilisations, pourrait avoir un impact désastreux sur la façon dont nous nous informons au XXIe siècle, selon la décision de la plateforme.
C’est d’ailleurs sur le thème de la manipulation des informations que la firme a souhaité conclure, en mettant en garde les citoyens du Web : » Le grand public doit être plus méfiant face aux textes publiés en ligne, comme les deepfakes doivent les rendre plus méfiants concernant les images. « , ont-ils déclaré, faisant ainsi référence aux vidéos imitant la voix et la gestuelle d’une personne, dans le but de produire une vidéo dans laquelle l’image d’un individu a été manipulée.
Par Alice Mercier, le
Source: Ouest France
Étiquettes: web, fake-news, réseaux sociaux, internet, intelligence artificielle
Catégories: Actualités, Robots & IA