À partir du 1er juillet 2019, San Francisco va mettre en place “un outil de réduction du biais” qui aura pour but de combattre le racisme présent dans la justice américaine. Ce dernier aura pour but de censurer les informations qui peuvent conduire à l’identification de la couleur de peau d’un suspect dans les rapports de police.
Comment fonctionne cet outil ?
L’outil a été développé par une équipe de chercheurs de l’université de Stanford. Il sera sous la forme d’une simple application web, accessible depuis un ordinateur. L’ensemble s’appuiera sur plusieurs algorithmes d’intelligence artificielle, capable d’analyser et de comprendre les termes d’un rapport de police.
Premièrement, il sera question de censurer des mots qui peuvent conduire à l’identification de la couleur de peau d’un suspect, à travers un rapport de police. Techniquement, les mots seront ensuite remplacés par des versions plus génériques, comme Agent #1. Puisque ce sera une intelligence artificielle qui s’occupera d’analyser, de traiter et de juger les images d’un rapport de police – en reconnaissant les mots inscrits -, les chercheurs estiment que cela pourrait mettre fin au racisme, ou du moins à l’influence dans la justice américaine.
Pour le moment, l’outil est presque disponible. Il est dans sa dernière ligne droite de développement. Cependant, San Francisco l’utilisera dès le 1er juillet et fournira les premières données d’analyse sur lesquelles les chercheurs pourront se baser afin d’améliorer leur produit. Également, il est indiqué que cette simple application web sera mise en libre accès, afin que d’autres instances puissent l’adopter. Les chercheurs ont insisté sur le fait que le suivi sera régulier, chaque semaine, afin de bien réguler les résultats et d’y apporter d’éventuelles améliorations.
En quoi consiste-t-il ?
Tout d’abord, l’utilisation de cet outil va dans le sens des dernières politiques de la ville de San Francisco, qui cherche à combattre le racisme présent dans la justice et dans le fonctionnement de la police. Le mois dernier déjà, la ville avait interdit à la police d’utiliser la reconnaissance faciale, une technologie utile mais qui permettait d’identifier quelqu’un à l’aide d’une photo ou d’une vidéo.
L’usage d’une telle technologie consiste à “retirer la couleur de peau de l’équation”, comme le rapporte le procureur de la ville de San Francisco, George Gascón. Quand il s’agit des procureurs, le but d’un tel procédé est de parer à toute éventualité concernant une potentielle influence par un biais raciste. Ainsi, l’outil consiste en la suppression et la censure de plusieurs informations, allant de la couleur des yeux à la couleur des cheveux. Également, plusieurs éléments qui pourraient mener à des identifications comme les quartiers fréquentés, le nom des gens mentionnés dans le dossier, certaines origines, tout sera étudié par l’intelligence artificielle et potentiellement retiré.
Mais cela concerne également les policiers ayant joué un rôle dans l’enquête. Leur numéro de badge sera par exemple masqué, et remplacé. Cela a été décidé afin de ne pas influencer les procureurs, dans l’éventualité où ils connaîtraient un ou plusieurs agents de police. Enfin, cette version dite “censurée” du dossier de police sera uniquement présentée au procureur avant qu’il prenne sa première décision sur l’enquête. Par la suite, il pourra examiner le dossier d’origine, avec toutes les informations. Il aura ensuite le choix et pourra revenir sur la première décision, ou non. Quoi qu’il en soit, l’outil devrait être mis en place le 1er juillet à San Francisco.
Par Benjamin Cabiron, le
Source: Futurism
Étiquettes: tribunal, san-francisco, justice, intelligence artificielle
Catégories: Actualités, Robots & IA