Alors que des recherches menées en interne avaient montré que les outils utilisés par la plateforme rendaient ses utilisateurs plus polarisés et enclins à adopter des positions extrêmes sur divers sujets, une enquête affirme que les dirigeants de Facebook ont volontairement ignoré les solutions proposées.
Un réseau social clivant
Une enquête du Wall Street Journal a récemment révélé que Mark Zuckerberg et d’autres cadres de l’entreprise savaient que ses différents algorithmes encourageaient la polarisation et exploitaient la tendance du cerveau humain à préférer les informations le renforçant dans ses croyances, mais avaient délibérément choisi de mettre un terme aux recherches ayant révélé ce problème, proposant par ailleurs différentes pistes afin de l’atténuer.
Menés en interne, ces efforts visant à mieux comprendre l’impact de Facebook sur le comportement de ses utilisateurs avaient été déployés à la suite du scandale Cambridge Analytica. Les chercheurs en étant à l’origine avaient conclu que contrairement à la mission du réseau social, visant à rapprocher les gens, ses algorithmes avaient plutôt tendance à les diviser et les poussaient également à adopter des positions plus extrêmes.
Des tendances déjà mises en évidence par un précédent rapport interne, datant de 2016, qui avait conclu que 64 % de l’ensemble des adhésions à des groupes considérés comme radicaux étaient dues aux outils de recommandation de Facebook.
Le quotidien américain a également rapporté que les équipes de Facebook avaient proposé de nombreuses solutions, notamment la limitation de la diffusion d’informations provenant des utilisateurs les plus actifs de ces groupes, des suggestions de groupes moins polarisées, ou la création de sous-groupes pour les débats les plus vifs afin d’éviter qu’ils ne fassent dérailler des groupes entiers.
Propositions ayant été rejetées ou considérablement édulcorées par Mark Zuckerberg et Joel Kaplan, responsable politique de Facebook, qui craignaient qu’elles réduisent le nombre d’utilisateurs de la plateforme et impactent la croissance économique de l’entreprise.
S’éloigner du bien commun pour se concentrer sur la valeur individuelle
Les chercheurs de l’entreprise avaient également déterminé qu’en raison d’une plus grande présence de comptes et de pages assimilés à l’extrême droite publiant du contenu sur Facebook, tout changement, y compris des ajustements visant à réduire le clickbait, aurait largement impacté les conservateurs, ce qui n’avait pas manqué d’inquiéter Kaplan, ayant auparavant interrompu un programme appelé « Common Ground », destiné à promouvoir un contenu politiquement neutre sur la plateforme.
Toujours selon le Wall Street Journal, afin de justifier le fait que nombre de solutions proposées n’aient pas été intégrées, des responsables de Facebook avaient déclaré en septembre 2018 aux employés que l’entreprise « s’éloignait du bien commun pour se concentrer sur la valeur individuelle ».
« Nous avons beaucoup appris depuis 2016 et ne sommes plus la même entreprise aujourd’hui », a déclaré un porte-parole de Facebook en réponse à l’enquête du quotidien national américain. « Nous avons renforcé nos politiques et nos pratiques pour limiter les contenus préjudiciables, et utilisé la recherche pour comprendre l’impact de notre plateforme sur la société afin de continuer à nous améliorer. »
Ces derniers mois, Facebook a été largement critiqué en raison du grand nombre de théories conspirationnistes ayant circulé sur la plateforme depuis le début du coronavirus, et il ne fait aucun doute que les changements prétendument opérés dans sa politique continueront à être scrutés de près, alors que l’élection présidentielle américaine approche à grands pas.
Par Yann Contegat, le
Source: Business Insider
Étiquettes: algorithme, reseau-social, recommandation, facebook, politique
Catégories: Applications & VR, Actualités
Je pense que l’on touche ici le graal.