ChatGPT Has a Big Privacy Problem
Quand Openai a sorti GPT-3 En juillet 2020, il a offert un aperçu des données utilisées pour former le modèle de grande langue. Des millions de pages grattées du Web, des publications Reddit, des livres et d’autres sont utilisées pour créer le système de texte génératif, selon un document technique. En récupéré dans ces données se trouvent quelques-unes des informations personnelles que vous partagez sur vous-même en ligne. Ces données sont désormais ouvertes en difficulté.
Le 31 mars, le régulateur des données italien a rendu une décision d’urgence temporaire exigeant OpenAI arrête d’utiliser les informations personnelles de millions d’Italiens incluses dans ses données de formation. Selon le régulateur, Garante Per La Protezione Dei Dati Personali, Openai n’a pas le droit légal d’utiliser les informations personnelles des gens dans Chatgpt. En réponse, Openai a empêché les gens d’Italie d’accéder à son chatbot alors qu’il fournit des réponses aux responsables, qui enquêtent plus loin.
L’action est la première contre Chatgpt par un régulateur occidental et met en évidence les tensions de confidentialité autour de la création de modèles d’IA génératifs géants, qui sont souvent formés sur de vastes étendues de données Internet. Tout comme les artistes et sociétés de médias se sont plaints que les développeurs d’IA génératifs ont utilisé leur travail sans autorisation, le régulateur de données dit maintenant la même chose pour les informations personnelles des gens.
Des décisions similaires pourraient suivre dans toute l’Europe. Dans les jours qui ont suivi une annonce qui a annoncé son sonde, les régulateurs de données en France, Allemagne et Irlande ont contacté le Garante pour demander plus d’informations sur ses résultats. «Si le modèle commercial vient de gratter Internet pour tout ce que vous pourriez trouver, il pourrait y avoir un problème vraiment important ici», explique Tobias Judin, chef de l’International chez Norway’s Data Protection Authority, qui surveille les développements. Judin ajoute que si un modèle est construit sur des données qui peuvent être collectées illégalement, cela soulève des questions sur la question de savoir si quelqu’un peut utiliser les outils légalement.
Le coup d’Italie à Openai est également excité alors que l’examen des grands modèles d’IA augmente régulièrement. Le 29 mars, les dirigeants technologiques ont appelé à une pause sur le développement de systèmes comme Chatgpt, craignant ses implications futures. Judin dit que la décision italienne met en évidence des préoccupations plus immédiates. «Essentiellement, nous constatons que le développement de l’IA à ce jour pourrait potentiellement avoir une énorme lacune», explique Judin.
Le travail italien
Les règles du RGPD en Europe, qui couvrent la façon dont les organisations Collectez, stockez et utilisez les données personnelles des gensprotéger les données de plus de 400 millions de personnes sur le continent. Ces données personnelles peuvent être quelque chose du nom d’une personne à son adresse IP – s’il peut être utilisé pour identifier quelqu’un, il peut compter comme ses informations personnelles. Contrairement aux patchwork des règles de confidentialité au niveau de l’État aux États-Unis, les protections du RGPD s’appliquent si les informations des gens sont disponibles librement en ligne. En bref: ce n’est pas parce que les informations de quelqu’un sont publiques que vous pouvez le faire vacciner et faire tout ce que vous en voulez.
L’Italie Garante pense que Chatgpt a quatre problèmes en vertu du RGPD: Openai n’a pas de contrôle d’âge pour empêcher les personnes de moins de 13 ans d’utiliser le système de génération de texte; Il peut fournir des informations sur les personnes qui ne sont pas exactes; Et les gens n’ont pas été informés que leurs données avaient été collectées. Peut-être plus important encore, son quatrième argument affirme qu’il n’y a «pas de base juridique» pour collecter les informations personnelles des gens dans les foules massives de données utilisées pour former le chatppt.
«Les Italiens ont appelé leur bluff», explique Lilian Edwards, professeur de droit, d’innovation et de société à l’Université de Newcastle au Royaume-Uni. “Il semblait assez évident dans l’UE qu’il s’agissait d’une violation de la loi sur la protection des données.”