Image de teguhjatipras, CC0 1.0
1984 a coûté une autre âme innocente.
|
Publié : 13 mars 2026 à 19h00
Une grand-mère du Tennessee tente maintenant de reconstruire sa vie après qu’un système de reconnaissance faciale à intelligence artificielle l’a identifiée par erreur, ce qui lui a valu près de six mois de prison pour un crime à 1 200 milles de là, comme le rapporte le journal. Le gardien. Angela Lipps, 50 ans, affirme qu’elle n’était jamais allée dans le Dakota du Nord avant que les autorités ne l’y emmènent par avion l’année dernière pour faire face à des accusations, et qu’elle n’a certainement pas commis la fraude bancaire dont elle était accusée.
Lipps, mère de trois enfants et grand-mère de cinq enfants, a passé la majeure partie de sa vie dans le centre-nord du Tennessee. Elle a été arrêtée par des policiers américains sous la menace d’une arme en juillet à son domicile alors qu’elle gardait quatre enfants. Elle a ensuite été incarcérée dans une prison du comté en tant que fugitive de la justice du Dakota du Nord, un endroit qu’elle a déclaré à WDAY News qu’elle n’avait jamais visité et où elle ne connaissait personne.
Les dossiers de la police de Fargo montrent que des détectives enquêtant sur des cas de fraude bancaire en avril et mai 2025 ont examiné une vidéo de surveillance d’une femme utilisant une fausse carte d’identité militaire de l’armée américaine pour retirer des dizaines de milliers de dollars. Les policiers auraient utilisé un logiciel de reconnaissance faciale pour identifier le suspect comme étant Lipps. Un détective a même écrit dans des documents judiciaires que Lipps semblait correspondre au suspect sur la base des traits du visage, du type de corps et de la coiffure. Lipps a mentionné que personne du département de police de Fargo ne l’avait contactée avant l’arrestation.
Toute cette situation est vraiment horrible à entendre, surtout lorsqu’une personne innocente perd autant à cause d’un faux pas numérique.
Elle est restée dans une prison du Tennessee pendant près de quatre mois sans caution, en attendant d’être extradée, après avoir été inculpée de quatre chefs d’accusation d’utilisation non autorisée d’informations d’identification personnelle et de quatre chefs de vol. Les autorités du Dakota du Nord n’ont transporté Lipps du Tennessee que fin octobre, 108 jours après son arrestation initiale. Elle a finalement comparu dans une salle d’audience du Dakota du Nord le lendemain.
Son avocat, Jay Greenwood, a fait valoir un point très intelligent, déclarant que si la reconnaissance faciale est le seul élément de preuve, les enquêteurs devraient certainement creuser un peu plus. Heureusement, Greenwood a pu obtenir les relevés bancaires de Lipps et les présenter aux enquêteurs. Ces dossiers montraient clairement que Lipps se trouvait à plus de 1 200 milles dans le Tennessee lorsque la fraude aurait eu lieu à Fargo.
Une grand-mère du Tennessee dit qu’elle tente de reconstruire sa vie après qu’un incident d’identité erronée dû à un système de reconnaissance faciale à intelligence artificielle (IA) l’a liée à une enquête pour fraude bancaire dans le Dakota du Nord. https://t.co/EyFaymOZon
– CraiginAngleterre (@ghost_wales) 13 mars 2026
Grâce à cette preuve indéniable, Lipps a finalement été libéré la veille de Noël. Mais l’épreuve ne s’est pas arrêtée là. Elle dit que la police de Fargo n’a pas payé son voyage de retour, la laissant bloquée pendant les vacances. Heureusement, certains avocats de la défense locaux sont intervenus pour couvrir une chambre d’hôtel et de la nourriture la veille de Noël et le jour de Noël, et une organisation locale à but non lucratif, le projet F5, l’a aidée à retourner au Tennessee.
Cette expérience a eu des conséquences dévastatrices et durables pour Lipps. Alors qu’elle était en prison et incapable de payer ses factures, elle a perdu sa maison, sa voiture et même son chien. Pour aggraver les choses, elle a déclaré que personne du service de police de Fargo ne lui avait présenté ses excuses.
Malheureusement, il ne s’agit pas d’un incident isolé d’erreur de l’IA ayant de graves conséquences dans le monde réel. En octobre dernier, un système d’IA a apparemment confondu le sac de Doritos d’un lycéen de Baltimore avec une arme à feu, ce qui a conduit la police à confronter et à menotter l’étudiant, Taki Allen, pour ne rien trouver.
Plus tôt cette année, la police britannique a arrêté un homme pour un cambriolage dans une ville qu’il n’avait jamais visitée, car un logiciel de numérisation du visage l’avait confondu avec une autre personne d’origine sud-asiatique. Cela représente un cambriolage de 3 000 £ à 100 miles de là où se trouvait l’homme qui s’est trompé. Ces cas mettent vraiment en évidence le besoin crucial d’une surveillance et d’une vérification humaines lorsque les systèmes d’IA sont impliqués dans des domaines aussi sensibles.