Aller au contenu principal

Pourquoi certains algorithmes sont-ils racistes et sexistes ?

Les humains transmettent leurs préjugés haineux et leurs discriminations aux machines qu'ils façonnent

Technologie, intelligence artificielle, machine learning, deep learning… De nos jours, de plus en plus de gens ne peuvent plus s’en passer, car ces technologies s’invitent aujourd’hui partout, que ce soit sur le plan personnel, professionnel, social ou encore culturel. Les technologies dopées à l’intelligence artificielle (IA) sont particulièrement appréciées pour leurs capacités à mimer le comportement et la façon de penser des humains. Elles sont aujourd’hui très utilisées pour la soi-disant neutralité et performance des algorithmes. Pourtant, depuis quelques années, des utilisateurs se sentent discriminés par ces derniers.

L’intelligence artificielle, miroir de l’être humain ?

Le parfait système de fonctionnement de l’intelligence artificielle est parfois biaisé, car il ne faut pas oublier qu’elle est l’œuvre d’êtres humains. L’IA reflète tout simplement le comportement humain et celui de la société. C’est de là qu’apparait le phénomène que l’on appelle « biais algorithmique ». Comme nous vivons dans un monde rempli de préjugés et de discriminations, la technologie marche aussi dans nos pas.

L’algorithme se base sur les données qui lui sont exposées. C’est grâce à ces nombreuses données que l’intelligence artificielle peut fonctionner correctement en émettant des jugements, ou des prédictions, sur les informations qu’elle traite en fonction des modèles qu’elle remarque. Pour faire simple, la qualité des données influence le jugement d’une intelligence artificielle, qui pourrait donc être sexiste ou raciste.

Beaucoup de cas ont ainsi été répertoriés, car les biais peuvent concerner n’importe quel sujet comme l’ethnicité, le genre, l’orientation sexuelle, la culture, le langage, la langue, mais aussi l’âge, … et que ses conséquences peuvent être dramatiques.

On se demande comment cela a pu se produire. Il est très difficile de le comprendre et, in fine, les consommateurs pensent que ces phénomènes sont probablement dus à des bugs ou des défaillances du système. Pourtant, les questions à se poser sont ailleurs. Vous êtes-vous déjà demandé comment les algorithmes sont conçus et comment ils fonctionnent vraiment ?

— PabloLagarto / Shutterstock.com

Les discriminations liées à la couleur de peau également présentes dans la tech

Le biais algorithmique le plus connu concerne l’algorithme de reconnaissance faciale. Cette dernière a tendance à ne pas reconnaitre les peaux noires, car les personnes qui l’ont pensée, développée et implémentée sont pour la majorité blanches. A titre d’exemple, des chercheurs du Georgia Institute of Technology ont révélé que les voitures autonomes esquivaient mieux les piétons blancs que les piétons noirs. La technologie devient ainsi raciste et le caractère neutre des intelligences artificielles perd toute sa signification.

Un traitement inégalitaire à l’encontre des femmes

Les fonctionnalités des algorithmes sont influencées par leurs concepteurs et les données qui y sont incorporées. D’après la biologiste Aude Bernheim, auteure du livre « L’Intelligence artificielle, pas sans elles ! », les algorithmes sont conçus majoritairement par des hommes (les femmes représenteraient seulement 22 % des professionnels de l’IA selon l’UNESCO). Comme les femmes sont ainsi sous-représentées, les hommes y sont mieux répertoriés. Les algorithmes reproduisent les préjugés, donc ils vont plutôt valoriser les hommes par rapport aux femmes.

Par exemple, on a remarqué qu’il existe des inégalités sexuelles dans le domaine d’attribution de prêt ou de crédit. Les algorithmes augmentent les crédits effectués par les femmes, alors que leur pouvoir d’achat est moins important que celui des hommes.

Le cas d’Amazon est aussi un parfait exemple pour démontrer que les données de formation des intelligences artificielles peuvent faire preuve de sexisme. La société a essayé d’utiliser l’intelligence artificielle pour créer un outil de dépistage de curriculum vitae afin de les trier plus efficacement et plus rapidement. De ce fait, elle a construit un algorithme de dépistage à l’aide des CV qu’elle avait recueillis pendant une décennie. Etant donné que ces derniers provenaient généralement d’hommes, cela signifie que le système a finalement appris à discriminer les femmes.

Des solutions en vue !

Pour éviter les biais technologiques, plusieurs solutions sont possibles : créer des ensembles de données plus représentatifs par exemple, ou bien initier les plus jeunes à l’informatique, ou encore inciter les femmes à entrer et travailler dans le monde de la technologie pour pouvoir au moins équilibrer la donne.

Malheureusement, cela n’est pas aussi simple, comme en témoigne Aurélie Jean, scientifique numérique et ex-chercheuse au Massachusetts lnstitute of Technology : « L’algorithme n’est pas coupable, ni sexiste, ni raciste. Il n’est ni une personne morale, ni une personne physique. Ce sont nous, les humains, qui sommes machos, racistes, sexistes, et qui devons prendre nos responsabilités par rapport à ces algorithmes. Parce que derrière chaque algorithme, il y a au moins une personne, qui a pensé, réfléchi, conçu, testé… »

Ainsi, pour arrêter le racisme et le sexisme technologiques, avec des algorithmes équitables et égaux à tous les niveaux, il sera nécessaire de sortir de nouvelles lois. Une commission, la FTC ou Federal Trade Commission, a maintenant mis au point un projet de loi qui obligerait les entreprises à vérifier si leurs systèmes d’IA sont biaisés ou pas. Affaire à suivre.

Par Micka Hanitrarivo, le

Source: Vox

Étiquettes: , ,

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *