La reconnaissance faciale de l’IA a conduit à l’arrestation injustifiée d’une femme enceinte de 8 mois pour détournement de voiture devant des enfants : poursuite
La reconnaissance faciale basée sur l’intelligence artificielle a identifié à tort une femme enceinte de huit mois pour un détournement de voiture violent, selon un procès.
Six policiers ont envahi la maison de Porcha Woodruff à Detroit avant 8 heures du matin un matin de février alors qu’elle préparait ses enfants de 12 et 6 ans pour l’école, selon le procès fédéral.
« J’ai un mandat d’arrêt contre vous, sortez », a déclaré l’un des officiers à Woodruff, qui a d’abord pensé qu’il s’agissait d’une blague, selon le procès.
Les agents lui ont dit qu’elle était arrêtée pour vol et détournement de voiture.
« Tu plaisantes, carjacking ? Tu vois que je suis enceinte de huit mois ? » elle a répondu avant d’être menottée.
Woodruff, 32 ans, qui vivait avec son fiancé et ses deux enfants, a été impliquée en tant que suspecte par le biais d’une série de photos montrées à la victime « à la suite d’une correspondance de reconnaissance faciale peu fiable », indique le procès.
La photo utilisée dans la programmation était une photo d’identité d’une fillette de 8 ans lors d’une arrestation en 2015 à Canton, dans le Michigan, bien que la police ait eu accès à une photo plus récente sur son permis de conduire, selon le procès.
Les policiers ont menotté la mère enceinte devant ses enfants.
« Elle a été forcée de dire à ses deux enfants, qui pleuraient là, de monter à l’étage et de réveiller le fiancé de Woodruff pour lui dire : ‘Maman va en prison' », indique le procès.
Son fiancé et sa mère, qu’il a appelés, ont tenté de la défendre auprès de la police, mais en vain.
Woodruff a été conduite dans le véhicule de police, fouillée et menottée sous les yeux des voisins et de sa famille, indique le procès.
Lors de l’interrogatoire, la police a posé des questions sur ses tatouages, si elle connaissait un homme qu’elle ne connaissait pas et quel était son opérateur de téléphonie mobile, selon l’action en justice, qui a ensuite montré qu’aucune des réponses ne correspondait à la description du suspect pour qui ils étaient regarder.
À un moment donné, Woodruff a demandé au détective : « La victime a-t-elle dit que la femme était enceinte de 8 mois ? »
L’officier a répondu « Non ».
Elle a passé deux heures de plus dans une cellule de détention après l’interrogatoire jusqu’à ce qu’elle soit interpellée.
« Elle s’est assise sur un banc en béton pendant environ 11 heures avant d’être relâchée car il n’y avait ni lit ni chaise disponibles », selon le procès.
Le stress a provoqué des complications médicales avec le bébé ainsi que la déshydratation, selon le procès.
Tout cela s’est passé entre 7 h 50 et 19 h le 16 février. Le 7 mars, l’affaire a été classée pour « preuves insuffisantes ».
Woodruff a poursuivi le département de police de Detroit devant un tribunal fédéral le 3 août.
La police de Detroit n’a pas répondu à une demande de commentaire de Garde ton corps.
Précédentes arrestations injustifiées d’AI à Detroit
Avant l’arrestation injustifiée de Woodruff, qui est noir, la police de Detroit a arrêté deux hommes noirs nommés Robert Williams et Michael Oliver, qui sont devenus des cas très médiatisés.
Les deux hommes ont été faussement accusés par AI, ce qui a déclenché une action en justice de l’American Civili Liberties Union.
Il y a d’autres cas comme celui-ci à travers le pays, y compris l’arrestation injustifiée d’une femme de Géorgie noire pour vols de sac à main en Louisiane.
« La nécessité d’une réforme et de méthodes d’enquête plus précises par la police de Detroit est devenue évidente, alors que nous nous penchons sur les implications troublantes de la technologie de reconnaissance faciale dans cette affaire », indique le procès.
Des dizaines d’études ont été menées aux États-Unis seulement au cours des 10 dernières années qui semblent étayer les affirmations du procès.
L’Institut national américain des normes et de la technologie (NIST) recherche en 2019qui était considérée comme une étude marquante à l’époque, est souvent citée dans des articles de presse et d’autres documents de recherche comme un point de départ.
L’étude a montré que les visages afro-américains et asiatiques étaient jusqu’à 100 fois plus susceptibles d’être mal identifiés que les visages blancs. Les Amérindiens ont été mal identifiés le plus souvent.
Selon le NIST, les peaux plus foncées des femmes sont encore plus susceptibles d’être mal identifiées par la reconnaissance faciale basée sur l’IA.
D’autres recherches universitaires à travers le monde, y compris au Royaume-Uni et au Canada, ont constaté des disparités similaires, selon un rapport publié en mai par Amnesty International.
Le procès de Woodruff exigeait une somme d’argent non divulguée et des rapatriements.