Cops Used DNA to Predict a Suspect’s Face—and Tried to Run Facial Recognition on It
En 2017, les détectives Travailler une affaire froide au département de police du district régional du parc régional d'East Bay a eu une idée, une idée qui pourrait les aider enfin à prendre une avance sur le meurtre de Maria Jane Weidhofer. Les officiers avaient trouvé Weidhofer, mort et agressé sexuellement, à Berkeley, le parc régional de Tilden en Californie en 1990. Près de 30 ans plus tard, le département a envoyé des informations génétiques collectées sur les lieux du crime au parabon Nanolabs – une entreprise qui dit qu'elle peut transformer l'ADN en visage.
Le parabon nanolabs a dirigé l'ADN du suspect à travers son modèle d'apprentissage automatique propriétaire. Bientôt, cela a fourni au service de police quelque chose que les détectives n'avaient jamais vu auparavant: le visage d'un suspect potentiel, généré en utilisant uniquement des preuves de scène du crime.
L'image du parabon nanolabs produit, appelé rapport de phénotype instantané, n'était pas une photographie. C'était un rendu 3D qui plie la vallée étrange entre la réalité et la science-fiction; Une représentation de la façon dont l'algorithme de l'entreprise prédisait qu'une personne pourrait ressembler à des attributs génétiques trouvés dans l'échantillon d'ADN.
Le visage du meurtrier, a prédit la société, était un homme. Il avait une peau claire, des yeux bruns et des cheveux, pas de taches de rousseur et des sourcils touffus. Un artiste médico-légal employé par l'entreprise a photoshoppé une coupe de cheveux à la croquette étroite sur l'homme et lui a donné une moustache – un ajout artistique éclairé par une description du témoin et non l'échantillon d'ADN.
Dans une décision controversée de 2017, Le département a publié le visage prévu dans une tentative de solliciter des conseils du public. Puis, en 2020, l'un des détectives a fait quelque chose que les experts des libertés civiles disent est encore plus problématique – et une violation des conditions d'utilisation des Parabon Nanolabs: il a demandé à faire fonctionner le rendu via un logiciel de reconnaissance faciale.
“En utilisant l'ADN trouvé sur la scène du crime, Parabon Labs a reconstruit les traits faciaux d'un éventuel suspect”, a expliqué le détective dans une demande de «soutien analytique» envoyé au Northern California Regional Intelligence Center, un soi-disant centre de fusion qui facilite la collaboration entre les services de police fédéraux, étatiques et locaux. «J'ai une photo du suspect possible et je voudrais utiliser la technologie de reconnaissance faciale pour identifier un suspect / plomb.»
La demande du détective d'exécuter une estimation générée par l'ADN du visage d'un suspect via la technologie de reconnaissance faciale n'a pas été signalée auparavant. Trouvé dans une mine de dossiers de police piratés publiés par le déni distribué des secrets distribués, il semble que ce soit le premier exemple connu d'un service de police qui tente d'utiliser la reconnaissance faciale sur un visage généré par algorithme à partir de l'ADN à la scène criminel.
Ce ne sera probablement pas le dernier.
Pour les experts en reconnaissance faciale et les défenseurs de la vie privée, la demande du détective d'East Bay, tandis que dystopique, était également entièrement prévisible. Il met l'accent sur la façon dont, sans surveillance, les forces de l'ordre sont capables de mélanger et de faire correspondre les technologies de manière involontaire, en utilisant des algorithmes non testés pour distinguer les suspects en fonction de critères inconnaissables.
“C'est vraiment juste de la science de la malbouffe de considérer quelque chose comme ça”, a déclaré à Wired Wired. L'exécution de la reconnaissance faciale avec des intrants non fiables, comme un visage généré par algorithme, est plus susceptible d'identifier mal un suspect que de fournir aux forces de l'ordre une avance utile, soutient-elle. «Il n'y a aucune preuve réelle que le parabon peut produire avec précision un visage en premier lieu», explique Lynch. «C'est très dangereux, car cela met les gens à risque d'être suspects pour un crime qu'ils n'ont pas commis.»