Aller au contenu principal

Un homme incarcéré à tort à New York à cause… d’une IA !

Cette arrestation injustifiée remet en question l'utilisation de la technologie de reconnaissance faciale par la police

reconnaissance faciale
Image d’illustration — Trismegist san / Shutterstock.com

À New York, un homme a vu sa vie bouleversée par une défaillance technologique et un manque de vérifications élémentaires. Identifié à tort par un logiciel de reconnaissance faciale, il a passé deux jours en prison pour un crime qu’il n’avait pas commis. Cette affaire illustre les dangers d’un usage incontrôlé de l’intelligence artificielle dans le domaine judiciaire.

Une arrestation sans fondement

En avril dernier, Trevis Williams, un habitant de Brooklyn, a été interpellé par la police du métro. Placé en garde à vue, il ne comprenait pas pourquoi il était accusé. Les enquêteurs l’avaient relié à une affaire d’exhibition dans un immeuble de Manhattan, situé à près de 20 kilomètres de son domicile. Pourtant, la victime avait décrit un suspect mesurant 1,68 mètre et pesant environ 73 kg, loin des 1,88 mètre et 104 kg de Williams. Alors, comment une telle méprise a-t-elle pu se produire ? La réponse se trouve dans une reconnaissance faciale erronée issue d’une vidéo de mauvaise qualité.

Malgré ces incohérences, une image floue extraite d’une caméra de surveillance a suffi pour qu’un logiciel de reconnaissance faciale propose son nom parmi plusieurs correspondances possibles. Les policiers ont retenu son profil, l’ont soumis à la victime lors d’une séance d’identification, et celle-ci a affirmé le reconnaître. Cela a suffi pour que Williams se retrouve derrière les barreaux.

Depuis 2011, la police de New York (NYPD) utilise des outils de reconnaissance faciale pour mener ses enquêtes. Entre 2007 et 2020, elle a investi plus de 2,8 milliards de dollars dans des technologies de surveillance, incluant des logiciels de prédiction criminelle et des traceurs téléphoniques. Dans le cas de Williams, les enquêteurs ont soumis une image floue d’une caméra de surveillance à un algorithme. Celui-ci a généré six correspondances, toutes des hommes noirs portant des dreadlocks et une barbe. L’une des photos était celle de Williams, issue d’une arrestation antérieure pour un délit sans lien avec l’affaire. 

Un rapport interne soulignait pourtant qu’il n’y avait « aucun motif valable pour l’arrêter ». Mais les enquêteurs ont quand même organisé une reconnaissance visuelle avec la victime, qui l’a identifié. Les policiers n’ont pas vérifié son alibi, ni ses relevés téléphoniques ou son emploi du temps. Williams a pourtant insisté : « Ce n’est pas moi. » Mais un détective a rétorqué : « Bien sûr que tu vas dire ça. »

Témoignages fragiles et preuves ignorées

Le 10 février, la victime avait signalé qu’un livreur traînait souvent dans le couloir de son immeuble à Manhattan. Ce jour-là, elle l’avait aperçu dans un miroir, ses parties génitales exposées. Elle avait crié, et l’homme avait pris la fuite. Pourtant, au moment des faits, Williams se trouvait à Marine Park, Brooklyn, à 19 kilomètres de là. Les relevés des antennes téléphoniques ont confirmé qu’il rentrait chez lui après son travail dans le Connecticut, où il s’occupe d’adultes autistes.

Malgré ces preuves, il a été incarcéré pendant plus de deux jours. Bien que les charges aient été abandonnées en juillet, les conséquences pour Williams sont profondes : « En un instant, votre vie peut basculer. »

Trevis Williams n’est pas un cas isolé. Aux États-Unis, au moins dix personnes ont été arrêtées à tort suite à des erreurs de reconnaissance faciale, la majorité étant des personnes de couleur. À Detroit, trois hommes noirs ont été faussement accusés. Dans un autre cas en 2022, un homme a passé plus d’un mois en détention pour une tentative de meurtre qu’il n’avait pas commise.

Selon une étude du National Institute of Standards and Technology (NIST), si les systèmes de reconnaissance faciale peuvent atteindre une précision de 99,9 % avec des photos claires, ce taux chute drastiquement avec des images floues ou mal éclairées. Ces situations, courantes dans les enregistrements de vidéosurveillance, augmentent considérablement les risques d’erreurs.

Des garde-fous absents

Dans certaines villes comme Detroit ou en Indiana, la reconnaissance faciale ne peut être utilisée sans preuves supplémentaires, comme des empreintes digitales ou de l’ADN. À New York, il n’existe aucune règle de ce type. Le NYPD n’a pas non plus de registre pour suivre les erreurs liées à cette technologie.

Officiellement, le NYPD affirme que la reconnaissance faciale n’est qu’un outil parmi d’autres et qu’aucune arrestation n’est faite uniquement sur cette base. Mais Diane Akerman, l’avocate de Williams, conteste cette version : « Une enquête policière classique aurait pu éviter cette injustice. »

La Legal Aid Society, qui défendait Williams, a demandé une enquête sur les pratiques du NYPD. Elle estime que les cas documentés ne sont que « la partie émergée de l’iceberg ». L’organisation accuse également la police de contourner ses propres règles en collaborant avec d’autres agences pour effectuer des analyses de reconnaissance faciale interdites.

Pour Williams, l’impact dépasse largement ces deux jours de détention. Il préparait un concours pour devenir agent pénitentiaire à Rikers Island, mais son arrestation a bloqué la procédure. Il confie aujourd’hui souffrir de crises d’angoisse liées à cette expérience. Bien que l’affaire ait été classée sans suite, aucune autre personne n’a été inculpée. Pour lui, cette injustice illustre la face sombre d’une technologie présentée comme un outil miracle. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.

Par Eric Rafidiarimanana, le

Source: ZME Science

Étiquettes:

Catégories: ,

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *