London Underground Is Testing Real-Time AI Surveillance Tools to Spot Crime

En réponse à la demande de la liberté d'information de Wired, le TFL dit avoir utilisé des images de vidéosurveillance existantes, des algorithmes d'IA et de «nombreux modèles de détection» pour détecter les modèles de comportement. «En fournissant au personnel de la station des informations et des notifications sur le mouvement et le comportement des clients, ils pourront, espérons-le, répondre à toutes les situations plus rapidement», indique la réponse. Il indique également que le procès a donné un aperçu de l'évasion des tarifs qui «nous aidera dans nos approches et interventions futures» et les données recueillies sont conformes à son politiques de données.

Dans une déclaration envoyée après la publication de cet article, Mandy McGregor, responsable de la politique et de la sécurité communautaire de TFL, affirme que les résultats de l'essai continuent d'être analysés et ajoutent: «Il n'y avait aucune preuve de biais» dans les données collectées à l'essai. Pendant le procès, dit McGregor, il n'y avait aucun signe en place à la station qui a mentionné les tests des outils de surveillance de l'IA.

«Nous envisageons actuellement la conception et la portée d'une deuxième phase de l'essai. Aucune autre décision n'a été prise pour élargir l'utilisation de cette technologie, ni pour poursuivre les stations ou l'ajout de capacités. » Dit McGregor. «Tout déploiement plus large de la technologie au-delà d'un pilote dépendrait d'une consultation complète avec les communautés locales et d'autres parties prenantes concernées, y compris des experts dans le domaine.»

Systèmes de vision informatique, tels que ceux utilisés dans le test, travaillez en essayant de détecter des objets et des personnes dans les images et les vidéos. Au cours de l'essai de Londres, les algorithmes formés pour détecter certains comportements ou mouvements ont été combinés avec des images des caméras de vidéosurveillance de la station de 20 ans de la station souterraine – analysant l'imagerie tous les dixième de seconde. Lorsque le système a détecté l'un des 11 comportements ou événements identifiés comme problématiques, il émettait une alerte sur les iPads du personnel de la station ou un ordinateur. Le personnel de TFL a reçu 19 000 alertes pour potentiellement agir et 25 000 autres personnes conservées à des fins d'analyse, selon les documents.

Les catégories que le système a tenté d'identifier étaient: le mouvement de la foule, l'accès non autorisé, la sauvegarde, l'assistance à la mobilité, la criminalité et le comportement antisocial, la personne sur les pistes, les blessés ou les malades, les dangers tels que la litière ou les planchers humides, les articles sans surveillance, les clients échoués, et Évasion des tarifs. Chacun a plusieurs sous-catégories.

Daniel Leufer, analyste des politiques senior chez Digital Rights Group Access Now, dit que chaque fois qu'il voit un système faire ce type de surveillance, la première chose qu'il cherche est de savoir s'il tente de choisir l'agression ou le crime. «Les caméras le feront en identifiant le langage corporel et le comportement», dit-il. «Quel type d'ensemble de données allez-vous avoir à former quelque chose à ce sujet?»

Le rapport TFL sur le procès dit qu'il «voulait inclure des actes d'agression», mais a constaté qu'il était «incapable de les détecter avec succès». Cela ajoute qu'il y avait un manque de données d'entraînement – d'autres raisons de ne pas inclure les actes d'agression ont été évanouis. Au lieu de cela, le système a émis une alerte lorsque quelqu'un a levé les bras, décrits comme un «comportement commun lié aux actes d'agression» dans les documents.

“Les données de formation sont toujours insuffisantes car ces choses sont sans doute trop complexes et nuancées pour être capturées correctement dans des ensembles de données avec les nuances nécessaires”, dit Leufer, notant qu'il est positif que TFL a reconnu qu'il n'avait pas suffisamment de données de formation. «Je suis extrêmement sceptique quant à savoir si les systèmes d'apprentissage en machine peuvent être utilisés pour détecter de manière fiable l'agression d'une manière qui ne reproduisait pas simplement les biais sociétaux existants sur le type de comportement acceptable dans les espaces publics.» Il y avait un total de 66 alertes pour un comportement agressif, y compris le test des données, selon les documents câblés reçus.