— Tero Vesalainen / Shutterstock.com

Après les manipulations de masse des élections de 2016, les réseaux sociaux ont (plus ou moins) pris conscience de leur responsabilité dans la diffusion de contenus manipulés. Twitter a annoncé s’engager contre la libre transmission d’informations transformées, et notamment celle des deepfakes, ces vidéos pouvant faire dire ce que l’on veut à n’importe quelle personnalité.

Les géants du web s’organisent contre les manipulations

Les réseaux sociaux se préparent aux élections présidentielles américaines de 2020. Nous vous parlions récemment de la décision de Twitter d’interdire toute publicité politique, afin de garantir la partialité du débat démocratique. 

Désormais, Twitter réagit face à un autre problème pouvant influencer significativement le cours de la campagne : les deepfakes, principalement ces vidéos qui, à l’aide d’une intelligence artificielle, placent le visage de n’importe quelle personne sur celui d’une autre dans une vidéo. Ainsi, quiconque peut faire « parler » une personne différente, c’est-à-dire lui faire dire ce qu’elle n’a pas dit — à l’heure où les débats citoyens se font (surtout ?) sur les plateformes des réseaux sociaux, les deepfakes peuvent, s’ils ne sont contrôlés, manipuler l’opinion publique à grande échelle. 

Les géants du net commencent à réagir tandis que les élections 2020 approchent : Google, Facebook, Microsoft ont décidé d’agir chacun à leur manière. Si l’année dernière, Twitter avait déjà réagi contre les contenus pornographiques manipulés, le site a annoncé le 21 octobre dernier une future action contre les messages manipulés en politique. Dans un communiqué publié sur le blog du site ce lundi 11 novembre, Del Harvey, à la tête du service « Trust & Safety », présente plus précisément les politiques, encore adaptables, qui seront mises en place. 

Plus de transparence, davantage de contexte

Twitter élargit la définition des deepfakes à « tout contenu photo, audio ou vidéo qui a été significativement altéré ou fabriqué de manière à tromper les gens ou changer le message original ». Trois règles devraient être mises en place : joindre un avertissement aux messages ayant été manipulés, avertir les utilisateurs avant qu’ils ne partagent ces messages, ou envoyer vers une autre page expliquant pourquoi ce contenu est considéré comme non-authentique, et supprimer les tweets qui pourraient attenter à l’intégrité physique d’une personne ou mener à des dommages divers. 

De plus, Twitter appelle à la contribution de chacun, dans l’optique d’ajuster les politiques de modération. Chacun peut ainsi (même sans être concerné par la future élection américaine) jusqu’au 27 novembre inclus, donner son avis sur la tolérance ou l’intransigeance que le site devrait appliquer sur les contenus : si par exemple, tous les contenus manipulés devraient être laissés sur le site, supprimés, ou notifiés comme tels. De même, quel contenu devrait être réprimandé et comment, entre atteinte aux idées, à l’intégrité morale et/ou sociale d’une personne visée. 

Le réseau annonce prendre en compte les résultats pour décider de ses prochaines politiques, et devrait mettre en œuvre les nouvelles règles fin décembre. 

Les campagnes de manipulation sont toujours plus fréquentes 

Un rapport de l’Oxford Internet Institute de l’université d’Oxford publié en septembre dernier constatait que les campagnes de désinformation ont touché 70 pays en 2019, par rapport à 28 pays en 2017. Celles-ci ne proviennent pas que de pirates isolés : les gouvernements eux-mêmes utilisent des outils de manipulation de contenus pour influencer l’opinion populaire, faire taire les opinions dissidentes et miner la crédibilité de la presse, comme aux États-Unis, en Chine, en Inde, au Pakistan, en Russie, en Arabie saoudite… 

« Dans de nombreux pays autour du monde, des campagnes menant à la division sur les réseaux sociaux ont amplifié les tensions ethniques, ravivé les mouvements nationalistes, intensifié les conflits politiques, et ont même mené à des crises politiques — en affaiblissant simultanément la confiance publique dans les médias, les institutions démocratiques, et les résultats électoraux. »

Ce phénomène ne touche pas que certaines régions du globe : « Un nombre grandissant de partis politiques engagent des entreprises de relations publiques ou d’analyse de données afin de diffuser de la désinformation, lancer des bots politiques et/ou des campagnes de trolls, optimiser les résultats de recherche en ligne, ou répandre des messages de suppression de votants [une technique utilisée par une instance pour réduire, par l’intimidation ou la désinformation, le nombre de votants pour un parti opposé]. Dépenser de larges sommes sur ces compagnies privées est une pratique de plus en plus courante, dans les démocraties occidentales comme dans les démocraties émergentes », explique le rapport.

Les réseaux sociaux ont donc une responsabilité accrue dans la conservation d’une liberté d’expression et doivent veiller à montrer patte blanche face à la prévalence idéologique des gouvernements. Aux États-Unis, l’enjeu est de taille, quatre ans après la débâcle de l’élection 2016, entre manipulations étrangères et campagnes de désinformation massives. 

S’abonner
Notifier de
guest

0 Commentaires
Inline Feedbacks
View all comments