Military AI’s Next Frontier: Your Work Computer
C'est probablement dur Imaginer que vous êtes la cible de spycraft, mais l'espionnage des employés est la prochaine frontière de l'IA militaire. Les techniques de surveillance familières aux dictatures autoritaires ont maintenant été réutilisées pour cibler les travailleurs américains.
Au cours de la dernière décennie, quelques dizaines d'entreprises ont émergé pour vendre les abonnements de votre employeur à des services tels que «renseignement open source», «gestion de la réputation» et «évaluation des menaces d'initié» – Tools souvent développé par les entrepreneurs de la défense pour les utilisations de renseignement. Alors que l'apprentissage en profondeur et les nouvelles sources de données sont devenus disponibles au cours des dernières années, ces outils sont devenus considérablement plus sophistiqués. Avec eux, votre patron peut être en mesure d'utiliser l'analyse avancée des données pour identifier l'organisation du travail, les fuites internes et les critiques de l'entreprise.
Ce n'est pas un secret que La syndicalisation est déjà surveillé par de grandes entreprises comme Amazon. Mais l'expansion et la normalisation des outils pour suivre les travailleurs ont attiré peu de commentaires, malgré leurs origines inquiétantes. S'ils sont aussi puissants qu'ils prétendent l'être – ou même se diriger dans cette direction – nous avons besoin d'une conversation publique sur la sagesse de transférer ces munitions d'information entre des mains privées. L'IA de qualité militaire était destinée à cibler nos ennemis nationaux, nominalement sous le contrôle des gouvernements démocratiques élus, avec des garanties en place pour empêcher son utilisation contre les citoyens. Nous devons tous être préoccupés par l'idée que les mêmes systèmes peuvent désormais être largement déployables par quiconque peut payer.
Fivefast, par exemple, a commencé comme un startup anti-terrorisme vendre à les militairesmais il a remis ses outils aux sociétés et aux forces de l'ordre, qui peuvent les utiliser pour collecter et analyser Toutes sortes de données accessibles au publicy compris vos publications sur les réseaux sociaux. Plutôt que de simplement compter les mots clés, FiveCast se vante que c'est «sécurité commerciale»Et d'autres offres peuvent identifier les réseaux de personnes, lire du texte à l'intérieur d'images et même détecter des objets, des images, des logos, des émotions et des concepts à l'intérieur du contenu multimédia. frappespour les sociétés.
Les outils d'analyse de réseau développés pour identifier les cellules terroristes peuvent ainsi être utilisées pour identifier les principaux organisateurs du travail afin que les employeurs puissent illégalement les incendier avant la formation d'un syndicat. Le Utilisation standard de ces outils pendant le recrutement peut inciter les employeurs à éviter d'embaucher ces organisateurs en premier lieu. Et les stratégies quantitatives d'évaluation des risques conçue pour avertir la nation contre les attaques imminentes peuvent désormais éclairer les décisions d'investissement, comme se départir des zones et des fournisseurs qui sont estimés à une grande capacité d'organisation du travail.
Il n'est pas clair que ces outils peuvent être à la hauteur de leur battage médiatique. Par exemple, les méthodes d'analyse de réseau attribuent le risque par association, ce qui signifie que vous pouvez être signalé simplement pour suivre une page ou un compte particulier. Ces systèmes peuvent également être trompés par un faux contenu, qui est facilement produit à grande échelle avec une nouvelle IA générative. Et certaines entreprises proposent des techniques sophistiquées d'apprentissage automatique, comme l'apprentissage en profondeur, pour identifier le contenu qui semble en colère, qui est supposé signaler des plaintes qui pourraient entraîner une syndicalisation, bien que la détection des émotions se soit révélée être biaisé et basé sur des hypothèses défectueuses.
Mais les capacités de ces systèmes augmentent rapidement. Les entreprises publient qu'ils incluront bientôt les technologies d'IA de nouvelle génération dans leurs outils de surveillance. De nouvelles fonctionnalités promettent de faciliter l'exploration de données variées grâce à l'incitation, mais l'objectif ultime semble être un système de surveillance statut et semi-automatique et semi-automatique.
De plus, ces services d'abonnement fonctionnent même s'ils ne fonctionnent pas. Peu importe si un employé tarouillé en tant que fauteur de troubles est vraiment mécontent; Les dirigeants et la sécurité des entreprises pourraient toujours agir sur l'accusation et riposter injustement contre eux. Les jugements agrégés vagues des «émotions» d'une main-d'œuvre ou de l'image publique d'une entreprise sont actuellement impossibles à vérifier comme précis. Et la simple présence de ces systèmes a probablement un effet effrayant sur les comportements légalement protégés, y compris l'organisation du travail.