Cette méthode était mise en cause depuis des années par plusieurs associations. Elle en a fait une victime. En février dernier, une femme noire, Porcha Woodruff, a été accusée à tort d’un crime, car la police avait eu recours à la reconnaissance faciale.
Restée en garde à vue, elle a été libérée au bout d’une dizaine d’heures, alors qu’elle était enceinte de huit mois. Elle a porté plainte contre la ville de Détroit et contre la policière chargée de l’enquête pour arrestation abusive.
« Fouillée et menottée devant sa famille et ses voisins »
Femme sans histoire, Porcha Woodruff a été identifiée comme suspecte d’un vol de voiture avec violence, après une recherche menée via un logiciel de reconnaissance faciale. La police s’est ensuite servie d’images enregistrées par une caméra de vidéosurveillance dans une station-service. Le 16 février, les agents se sont alors présentés chez elle afin de l’arrêter.
« Vol de voiture à main armée ? Vous plaisantez ? Vous voyez que je suis enceinte de huit mois ? », a-t-elle lancé aux policiers. Malgré les protestations calmes de son entourage, elle « a été emmenée, fouillée et menottée devant sa famille et ses voisins », relate la plainte lue par l’Agence France Presse.
Durant sa garde à vue, elle a passé « environ onze heures debout ou assise sur un banc en béton » au commissariat. Elle a ensuite été transportée à l’hôpital, qui a constaté sa « faible fréquence cardiaque pour cause de déshydratation ». Et « elle a appris qu’elle avait des contractions dues au stress infligé ».
Une technologie décriée par les associations de droits humains
C’est seulement quinze jours plus tard qu’un tribunal a rejeté les accusations contre elle, faute de preuves. « Etant donné les défauts bien connus des technologies de reconnaissance faciale, qui ont tendance à se tromper, la police de Detroit a enfreint les droits de la plaignante en échouant à la protéger contre des erreurs prévisibles et leurs conséquences », déclarent ses avocats dans la plainte.
Cette technologie d’intelligence artificielle est depuis des années décriée par les défenseurs des droits humains pour ses relents racistes. Car les algorithmes, créés à partir de populations blanches, émettent de nombreuses erreurs sur les personnes noires.
À lire aussi : 10 films pour comprendre le racisme et les violences policières aux États-Unis
La plainte reproche à la police de ne pas avoir « mis en place des règles appropriées pour l’utilisation de cette technologie » et de ne pas avoir « formé ses employés de manière adéquate » à l’utilisation de la reconnaissance faciale. Ce qui, selon les avocats de la plaignante, « révèle une indifférence délibérée à l’égard du préjudice potentiel subi par les personnes identifiées de manière erronée ». Ce n’est pas peu de le dire.
Vous aimez nos articles ? Vous adorerez nos newsletters ! Abonnez-vous gratuitement sur cette page.
Les Commentaires
Quand on lit l'article on se croirait dans Minority Report, à quel moment la reconnaissance faciale trouve une personne "de nul part" ? A quel moment la reconnaissance faciale seule désigne un.e coupable d'un vol avec violence où la victime a pu voir le visage de l'agresseur.euse ?
Maintenant est-ce que les algorithmes sont racistes ? Oui clairement. Mais c'est pas la bonne histoire pour illustrer le problème je pense. C'est surtout une enquête bâclée, à charge, et une victime qui se trompe (ce qui arrive aussi, après avoir subit un vol avec violence on peut avoir une vision altérée des événements. On ne peut pas blâmer la victime ici.)
En France si vous êtes victime d'un vol avec violence, vous allez déposer plainte, on vous présente des photos, vous dites "100% c'est ellui, en plus j'ai eu une relation sexuelle avec peu avant donc je me souviens bien du visage", la personne que vous accusez se retrouvera directement en GàV, c'est normal. Le reste le banc en béton j'en passe, c'est une GàV oui, c'est horrible quand on s'y trouve mais c'est pas un "mauvais traitement" (dans le sens c'est pareil pour tout le monde, même si je trouve toujours ça inhumain).