YouTube est sans conteste la plateforme de vidéos de référence partout dans le monde, où l’on peut aussi bien retrouver des tutoriels, vidéos politiques, let’s play de jeux vidéo ou dégustations de nourriture en tout genre. La plateforme a fait parler d’elle pour diverses polémiques : aujourd’hui, c’est le système de recommandation de vidéos qui est au centre de multiples questions.

Les recommandations : une perte de temps ?

Lorsque vous avez un compte sur YouTube (et donc Google), et que vous visionnez des vidéos, l’algorithme vous suggère d’autres contenus similaires et susceptibles de vous intéresser. Cependant, beaucoup de critiques peuvent être faites sur le fonctionnement de ces suggestions. Guillaume Chaslot, qui a travaillé sur l’algorithme en question chez Google et aujourd’hui chef d’un projet autour de la transparence des plateformes numériques, explique l’envers du décor. “Ce n’est pas foncièrement mauvais que YouTube utilise une IA pour vous recommander des vidéos, parce qu’une IA qui est bien faite pour vous aider à voir ce qui vous plaît serait génial. Mais le problème est que l’IA n’est pas faite pour ça : elle est créée pour vous rendre accro à YouTube. Les recommandations ont été conçues pour vous faire perdre votre temps.”

Un des critères clés dans ce système de recommandation est le “watch time”, c’est-à-dire que le temps passé par les utilisateurs devant la vidéo est largement pris en compte, de façon à ce que la vidéo vous “garde” le plus longtemps possible sur la plateforme.

Le sensationnel plutôt que la qualité

Guillaume Chaslot explique que les vidéos qui sont généralement recommandées sont en lien avec des thématiques sensationnelles : fake news, théories du complot, etc. Nous sommes bien loin de la période où les vidéos de chats et de chiens étaient les plus populaires. Chaslot s’inquiète du fait que les informations diffusées par ces nouveaux contenus tendance influencent la pensée des gens.

Mark Zuckerberg a admis l’an dernier que le contenu “borderline” est ce qui attirait le plus les personnes. Un porte-parole de Google, présent à la conférence DisinfoLab (où justement Chaslot s’est exprimé) a contredit cette idée, estimant que l’engagement des gens était plus remarquable pour les contenus de qualité. Chaslot rejoint plutôt la position de Zuckerberg, selon ses dires ce n’est pas la qualité qui prime : « Nous sommes arrivés à la conclusion que les recommandations de YouTube étaient toxiques et peuvent pervertir les discussions entre les personnes. »

Un test fait par Chaslot met en avant un autre problème : la potentielle propagande ou désinformation. Lorsque l’affaire concernant l’implication russe dans les élections présidentielles américaines a éclaté, il s’avère que l’une des vidéos les plus recommandées par l’algorithme était créée par RT, une chaîne pro-russe. Pourtant, la vidéo en elle-même n’a eu que peu de vues, Chaslot s’interroge alors sur l’omniprésence de ce contenu dans les recommandations de milliers de personnes.

Que peut-on faire à propos de ces recommandations ?

Avant toute chose, Google a totalement contredit les propos tenus par Chaslot et estime qu’AlgoTransparency n’est pas efficace, car il ne reflèterait pas le fonctionnement des recommandations et omet de nombreux critères, comme le ratio likes/dislikes, le nombre de partages, etc.

Du côté des utilisateurs, la situation est donc particulièrement floue. Il est d’ailleurs compliqué de personnaliser soi-même la fonction de recommandation. Chaslot suggère de la supprimer car il pense “qu’elle n’est vraiment pas utile pour l’utilisateur”. Il estime que lui, tout comme la plupart des gens, ne peut pas résister à la tentation de cliquer sur les vidéos au contenu “borderline”. C’est pourquoi il utilise une extension du navigateur Chrome intitulée Nudge qui retire les contenus jugés addictifs sur Facebook et YouTube. “Je sais que je continue de cliquer sur des trucs stupides quand je les vois, donc le plus simple est de les enlever.”

Ces solutions traitent les symptômes mais pas la cause même, et de véritables solutions sur le long terme doivent être trouvées. Il conclut en estimant que “sur le long terme, nous avons besoin de personnes qui contrôlent l’IA, plutôt que d’une IA qui contrôle les utilisateurs”. Il est donc question de responsabiliser les utilisateurs en leur faisant prendre conscience qu’Internet peut, dans une certaine mesure, les “manipuler”, et qu’ils doivent reprendre le dessus.


COMMENTEZ

Inscrivez-vous ou connectez-vous pour commenter
avatar
  S’abonner  
Notifier de