Amazon-Powered AI Cameras Used to Detect Emotions of Unwitting UK Train Passengers
Network Rail n'a pas répondu aux questions sur les essais envoyés par Wired, y compris des questions sur l'état actuel de l'utilisation de l'IA, de la détection des émotions et des problèmes de confidentialité.
«Nous prenons très au sérieux la sécurité du réseau ferroviaire et utilisons une gamme de technologies avancées à travers nos stations pour protéger les passagers, nos collègues et les infrastructures ferroviaires contre les crimes et autres menaces», a déclaré un porte-parole de Rail Network. «Lorsque nous déploiement de la technologie, nous travaillons avec la police et les services de sécurité pour nous assurer que nous prenons des mesures proportionnées, et nous respectons toujours la législation pertinente concernant l'utilisation des technologies de surveillance.»
On ne sait pas à quel point l'analyse de détection des émotions a été largement déployée, les documents disant parfois que le cas d'utilisation devrait être «considéré avec plus de prudence» et des rapports des stations disant qu'il est «impossible de valider la précision». Cependant, Gregory Butler, PDG de Data Analytics and Computer Vision Company Purple Transforts, qui a travaillé avec Network Rail sur les essais, indique que la capacité a été interrompue pendant les tests et qu'aucune image n'a été stockée lorsqu'elle était active.
Les documents Rail Network sur les essais d'IA décrivent plusieurs cas d'utilisation impliquant le potentiel pour les caméras d'envoyer des alertes automatisées au personnel lorsqu'ils détectent un certain comportement. Aucun des systèmes n'utilise une technologie de reconnaissance faciale controversée, qui vise à faire correspondre les identités des gens à celles stockées dans des bases de données.
«Un avantage principal est la détection plus rapide des incidents d'intrusion», explique Butler, qui ajoute que le système d'analyse de son entreprise, Siyte, est utilisé sur 18 sites, y compris les gares et aux côtés des pistes. Au cours du dernier mois, dit Butler, il y a eu cinq cas graves d'intrusion que les systèmes ont détectés sur deux sites, dont un adolescent collectant une balle sur les pistes et un homme «passant plus de cinq minutes à ramasser des balles de golf le long d'une vitesse à grande vitesse doubler.”
À la gare de Leeds, l'un des les plus occupés à l'extérieur de Londresil y a 350 caméras de vidéosurveillance connectées à la plate-forme Siyte, dit Butler. «Les analyses sont utilisées pour mesurer le flux des gens et identifier des problèmes tels que la surpeuplement de la plate-forme et, bien sûr, les intrusions – où la technologie peut filtrer les travailleurs de la piste via leur uniforme d'EPP», dit-il. «L'IA aide les opérateurs humains, qui ne peuvent pas surveiller toutes les caméras en continu, à évaluer et à résoudre rapidement les risques et les problèmes de sécurité.»
Les documents du réseau réseau affirment que les caméras utilisées dans une station, la lecture, ont permis à la police d'accélérer les enquêtes sur les vols de vélo en étant en mesure d'identifier les vélos dans les images. “Il a été établi que, alors que les analyses ne pouvaient pas détecter en toute confiance un vol, mais ils pouvaient détecter une personne à vélo”, selon les fichiers. Ils ajoutent également que les nouveaux capteurs de qualité de l'air utilisés dans les essais pourraient gagner du temps pour effectuer du temps en effectuant des chèques manuellement. Une instance AI utilise des données des capteurs pour détecter les étages «transpiration», qui sont devenus glissants avec la condensation, et le personnel d'alerte lorsqu'ils doivent être nettoyés.
Alors que les documents détaillent certains éléments des procès, les experts en matière de vie privée disent qu'ils sont préoccupés par le manque global de transparence et de débat sur l'utilisation de l'IA dans les espaces publics. Dans un document conçu pour évaluer les problèmes de protection des données avec les systèmes, Hurfurt de Big Brother Watch dit qu'il semble y avoir une «attitude dédaigneuse» envers les personnes qui peuvent avoir des problèmes de confidentialité. Un question pose: “Certaines personnes sont-elles susceptibles de s'y opposer ou de la trouver intrusives?” Un membre du personnel écrit: «Généralement, non, mais il n'y a pas de prise en compte de certaines personnes.»
Dans le même temps, des systèmes de surveillance d'IA similaires qui utilisent la technologie pour surveiller les foules sont de plus en plus utilisés dans le monde. Pendant les Jeux olympiques de Paris en France plus tard cette année, la surveillance vidéo de l'IA regardera des milliers de personnes et essaiera de Choisissez des surtensions de la foule, l'utilisation d'armes et les objets abandonnés.
«Les systèmes qui n'identifient pas les gens sont meilleurs que ceux qui le font, mais je m'inquiète d'une pente glissante», explique Carissa Véliz, professeur agrégé en psychologie à l'Institut d'éthique de l'IA, à l'Université d'Oxford. Véliz souligne des essais d'IA similaires sur le souterrain de Londres qui avaient initialement brouillé les visages de personnes qui pourraient esquiver les tarifs, mais qui ont ensuite changé d'approche, des photos irréprochables et de conserver des images pendant plus longtemps que prévu initialement.
«Il y a une volonté très instinctive pour étendre la surveillance», explique Véliz. «Les êtres humains aiment en voir plus, voir plus loin. Mais la surveillance conduit au contrôle et au contrôle d'une perte de liberté qui menace les démocraties libérales. »