Aller au contenu principal

L’intelligence artificielle a-t-elle des préjugés ? 

Les humains transmettent-ils leurs préjugés haineux et leurs discriminations aux machines qu'ils façonnent ?

ia-prejuges
— © Mike MacKenzie / Flickr

L’intelligence artificielle (IA) a révolutionné de nombreux aspects de notre vie, des services en ligne aux applications médicales. Cependant, l’utilisation croissante de l’IA soulève des questions complexes sur les biais potentiels intégrés dans ces technologies. Le problème du biais en IA est loin d’être superficiel ; il touche des domaines aussi variés que le crédit, la santé et même l’application de la loi. 

Les machines sont des apprentis à l’image de l’Homme

Les machines apprennent à partir des données fournies par l’utilisateur. Si ces données reflètent les préjugés existants dans la société, les algorithmes d’IA reproduiront ces mêmes préjugés. L’apprentissage d’un algorithme est comparable à la culture du vin : des raisins de mauvaise qualité produiront un vin médiocre. 

Par exemple, les algorithmes de reconnaissance faciale formés principalement sur des photos de personnes à la peau claire ont du mal à identifier correctement les personnes à la peau foncée. Ce problème n’est pas anodin, car il peut conduire à des discriminations injustes dans les domaines du travail, de la santé et de la justice.

Un autre domaine où cela est manifeste est celui de l’embauche. Si un algorithme de recrutement est formé sur des données historiques dans lesquelles les hommes ont été plus fréquemment embauchés pour certains postes, il y a un risque qu’il favorise les candidats masculins dans ses futures recommandations. Les conséquences de ces biais algorithmiques sont donc loin d’être négligeables.

Les différentes origines des préjugés

Au-delà des ensembles de données, le deuxième facteur qui contribue au biais dans l’IA est la manière dont ces algorithmes sont formés et ajustés. Les méthodes d’apprentissage par renforcement utilisées dans la formation d’algorithmes comme ChatGPT incluent des évaluations humaines pour peaufiner le comportement de l’IA. Ce processus peut introduire des préjugés personnels ou culturels. Sam Altman, PDG d’OpenAI, a d’ailleurs exprimé des préoccupations à ce sujet, soulignant la responsabilité des évaluateurs humains dans l’introduction potentielle de biais.

L’impact de l’apprentissage supervisé par des humains peut être considérable, et pas toujours pour le mieux. Une réflexion sérieuse est nécessaire pour comprendre comment ces évaluateurs influencent les modèles d’IA, surtout si ces évaluateurs sont concentrés dans des bulles géographiques ou intellectuelles.

L’absence d’une réglementation robuste

La réglementation est un autre élément crucial dans cette équation. La technologie évolue souvent plus rapidement que les cadres réglementaires, laissant des vides que les entreprises sont libres de combler comme elles l’entendent. Bien que des groupes et des institutions militent pour une IA éthique, une réglementation plus stricte est nécessaire pour encadrer efficacement la manière dont ces technologies sont développées et déployées.

L’enjeu n’est pas simplement de corriger un algorithme ici ou là ; il s’agit de repenser systématiquement la manière d’aborder la conception et la formation de l’IA. Des efforts sont en cours pour créer des ensembles de données plus diversifiés et pour développer des techniques d’audit algorithmique, mais ces initiatives doivent être soutenues par des directives claires et globales.

— © deepak pal / Flickr

Vers une IA plus équitable

Finalement, la meilleure façon de corriger le biais dans l’IA est de comprendre que les algorithmes sont le reflet des données et des valeurs humaines. Cela signifie que la société a un rôle actif à jouer dans l’élaboration d’une IA qui lui ressemble au mieux, et non au pire. Les initiatives visant à créer des ensembles de données plus inclusifs, les audits algorithmiques et la sensibilisation accrue sont des pas dans la bonne direction.

Comme toute technologie, l’IA est un outil. Utilisée correctement, elle a le potentiel de bénéficier grandement à la société. Mais sans mesures appropriées pour contrôler et atténuer les préjugés, elle risque de perpétuer, voire d’exacerber, les inégalités existantes. L’urgence d’agir n’est donc pas seulement une question technique, mais aussi une question profondément éthique.

En résumé, l’IA peut être biaisée, mais elle ne doit pas l’être. Il est impératif pour les chercheurs, les législateurs et le public de collaborer pour faire de l’IA un outil aussi impartial et équitable que possible. À l’heure où l’IA prend de plus en plus de place dans notre quotidien, cette question ne pourrait pas être plus pertinente. Par ailleurs, pourquoi certains algorithmes sont-ils racistes et sexistes ?

Par Eric Rafidiarimanana, le

Source: ZME Science

Étiquettes: ,

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *