You Are Not Responsible for Your Own Online Privacy
En 2010, Mark Zuckerberg dit au public Lors d'une cérémonie de remise des prix TechCrunch que les jeunes – en particulier les utilisateurs des médias sociaux – ne se souciaient pas plus longtemps de la vie privée. “Les gens se sont vraiment mis à l'aise non seulement partageant plus d'informations et différents types, mais plus ouvertement et avec plus de gens”, a-t-il déclaré. “Cette norme sociale est juste quelque chose qui a évolué au fil du temps.” Bien que cette déclaration n'ait évidemment pas bien vieilli, elle reflète une croyance commune que les violations de la vie privée se produisent lorsque les individus révèlent leurs propres informations. En d'autres termes, lorsque quelque chose posté sur Reddit ou Tiktok devient viral, ou une photo nue envoyée à un admirateur fuit, c'est avant tout la faute de la personne qui l'a publiée. Ce modèle de responsabilité individualisé est très persistant. C'est aussi complètement faux. Et cela n'est pas pertinent à l'ère de l'IA générative.
L'IA générative efface complètement l'idée de la responsabilité individuelle de la confidentialité car vous ne pouvez pas contrôler l'accès de ces algorithmes à vos informations, ou ce qu'ils en font. Des outils comme Chatgpt, Dall-E et Google Bard sont formés sur les données grattées sans consentement, ni même à prévoir. Au pire, les ensembles d'entraînement aspirent de grandes quantités d'informations numériques et les combinent dans une suspension de données qui sert de matière première pour l'IA générative. Alors que les entreprises technologiques se précipitent pour intégrer l'IA génératrice dans tous les produits imaginables, des moteurs de recherche aux jeux aux gadgets militaires, il est impossible de savoir où va cette sortie, ou comment elle pourrait être interprétée. Leurs prédécesseurs à lutte contre la confidentialité, leurs courtiers de données, ont également gratté le Web et assemblé des dossiers massifs sur des individus, mais leurs sorties ne sont pas disponibles pour la personne moyenne, gratuitement ou intégrée dans les moteurs de recherche et les traitements de texte. La disponibilité généralisée de l'IA générative composte des violations potentielles de la vie privée et ouvre plus de personnes à des conséquences nuisibles.
Les corpus massifs employés par l'IA générative contiennent inévitablement des informations sur les personnes qui n'ont pas été fournies, créées ou même connues pour être disponibles. Les archives publiques sur les mariages, les hypothèques et l'inscription des électeurs sont tous des jeux équitables, tout comme les reportages, les bios des employés et les pages Wikipedia. Mais la suspension contient également des millions de photographies et de vidéos; Dall-E, par exemple, a été formé sur les images collectées sur les réseaux sociaux, les moteurs de recherche et les sites d'hébergement d'images. Donc, si vous êtes à l'arrière-plan d'une photo de Flickr à partir de 2007, votre image pourrait être utilisée pour entraîner un algorithme. Personne ne semble savoir ce qui se passe dans la suspension de données, et il n'y a aucun moyen de le superviser ou de le contrôler. Lorsque Chatgpt écrit une biographie inexacte de moi, je ne sais pas d'où proviennent les fausses informations, mais je ne sais pas non plus d'où proviennent les informations correctes. Nous avons l'habitude de considérer la vie privée comme un contrôle individuel sur les informations, mais il est impossible de réglementer la façon dont vos informations personnelles sont utilisées si vous ne connaissez même pas son origine.
Les anthropologues et les chercheurs juridiques savent depuis des années que la vie privée ne peut pas être contrôlée par des individus, en partie parce que nous partageons des informations dans les réseaux. En d'autres termes, les gens se parlent, sur et hors ligne. Il n'y a pas de moyen facile de mettre des limites à ce sujet; Vous pouvez demander à vos amis de ne pas publier de photos de vos enfants sur Instagram ou de vous mentionner sur Tiktok, mais vous n'êtes aussi privé que votre contact le plus léger. Les violations de la confidentialité en réseau se produisent souvent parce que les informations fournies dans un environnement avec des normes et des attentes particulières se déplacent ailleurs et sont interprétées différemment. Les Tiktoks ont fait pour le public queer et progressiste deviennent du fourrage pour les campagnes anti-Trans; Les discours politiques prononcés à un public sympathique semblent scandaleux lorsqu'ils sont vus par l'opposition.
Les nouvelles technologies compromettent de plus en plus cette confidentialité en réseau. La généalogie médico-légale, par exemple, permet à la police d'identifier les suspects en examinant des preuves génétiques recueillies auprès de parents éloignés. Vous pouvez choisir de ne pas utiliser Ancestry.com, mais vous ne pouvez pas arrêter un cousin tiers – qui vous ne savez probablement même pas, de faire de même. Le Big Data, qui utilise des ensembles de données massifs de manière similaire, implique fréquemment des amis, des parents et même des connaissances lointaines, qui devient extrêmement inquiétante lorsqu'elle est intégrée dans des algorithmes prédictifs de police ou d'évaluation des risques. Il n'y a rien que les gens puissent faire pour empêcher de telles invasions de vie privée.
L'IA générative accroche ces problèmes de confidentialité en réseau. Il compromet notre capacité à faire du «travail de confidentialité», les méthodes et stratégies que nous utilisons tous pour conserver un niveau de confidentialité acceptable. Et les sorties de l'IA générative sont complètement détachées de leur source d'origine d'une manière auparavant inimaginable. C'est une chose de divulguer des messages texte privés, et un autre pour l'intégralité de Reddit à utiliser comme grain pour la poésie robot et les mauvais journaux du collège. Les informations fournies dans un contexte peuvent être entièrement recontextualisées et remixées, modifiant sa signification et violant ce que le philosophe Helen Nissenbaum appelle «l'intégrité contextuelle». Comment une personne peut-elle prévenir cela?