Une équipe de chercheurs du Georgia Institute of Technology (États-Unis) a démontré que les systèmes de détection utilisés par les voitures autonomes se révèleraient moins précis pour les personnes de couleur, qui seraient pas extension plus susceptibles d’être renversées. Explications.

 

Un risque 5 % plus élevé de se faire renverser pour les personnes noires

Il y’a cinq ans, des scientifiques de l’Université de Portland avaient établi que les conducteurs avaient moins tendance à s’arrêter lorsque le piéton souhaitant traverser la rue était noir. Et selon un nouveau rapport publié le 21 février, il semble que cette tendance se vérifie également chez les véhicules autonomes. Dans le cadre de leurs travaux, les chercheurs américains ont en effet confronté huit systèmes de reconnaissance à des dizaines de milliers d’images de piétons capturées dans plusieurs grandes agglomérations américaines sous différentes conditions météorologiques (pluie, brouillard…), et constaté que les algorithmes de détection se montraient moins performants lorsqu’il s’agissait d’identifier des personnes de couleur.

Pour les besoins de l’expérience, les scientifiques ont réparti les piétons en deux groupes (couleur claire et couleur foncée) et découvert que la précision des systèmes de détection embarqués par les voitures autonomes se révélait 5 % inférieure pour les personnes à la peau sombre. En d’autres termes : ces véhicules sont à l’heure actuelle plus susceptibles de détecter, et donc d’esquiver les piétons blancs. D’après les chercheurs, ces « biais algorithmiques racistes » s’expliqueraient par le fait que la base de données d’apprentissage utilisée par les systèmes de détection contienne 3,5 fois plus d’exemples de piétons à la peau claire, ce qui rendrait par extension la détection des personnes de couleur moins efficace.

 

Des précédents dans le domaine de la reconnaissance faciale

Il est toutefois important de souligner que ces importantes disparités n’ont aucun rapport avec les conditions de luminosité ambiante (comme un faible contraste entre le piéton et l’arrière-plan en fin de journée) ou un champ de vision réduit (quand un piéton est masqué par un véhicule ou tout autre objet), puisqu’il s’avère que l’écart de précision entre les groupes à peau claire et à peau foncée a tendance à augmenter lorsque les conditions de détection sont optimales. Cependant, les chercheurs estiment qu’il est possible de corriger ces différences de traitement en utilisant une base de données plus fournie et plus inclusive, qui permettrait en toute logique une reconnaissance plus efficace des individus.

Afin de lutter contre ce type de dérives, Joy Buolamwini, chercheuse au MIT, a fondé il y a quelques années l’Algorithmic Justice League, qui se charge de dénoncer « les biais algorithmiques pouvant mener à de l’exclusion et des pratiques discriminatoires », principalement dans le cadre d’enquêtes policières se basant sur des logiciels de reconnaissance faciale considérés comme peu fiables. Il y a quelques années, l’algorithme de reconnaissance employé par Google Photos avait défrayé la chronique en confondant des afro-américains avec des gorilles, tandis qu’une étude menée par Buolamwini avait montré que celui d’Amazon se révélait incapable de distinguer les femmes noires des hommes dans près d’un tiers des cas.

 

COMMENTEZ

Inscrivez-vous ou connectez-vous pour commenter
avatar
  S’abonner  
Notifier de