‘AI Girlfriends’ Are a Privacy Nightmare
Tu ne devrais pas faire confiance Toute réponse qu'un chatbot vous envoie. Et vous ne devriez probablement pas non plus faire confiance à vos informations personnelles. C'est particulièrement vrai pour les «copines de l'IA» ou les «petits amis de l'IA», selon de nouvelles recherches.
Une analyse dans 11 chatbots soi-disant romance et compagnon, publié mercredi par la Fondation Mozillaa trouvé une litanie de problèmes de sécurité et de confidentialité avec les bots. Collectivement, les applications, qui ont été téléchargées plus de 100 millions de fois sur des appareils Android, recueillent d'énormes quantités de données de personnes; Utilisez des trackers qui envoient des informations à Google, à Facebook et aux entreprises en Russie et en Chine; permettre aux utilisateurs d'utiliser des mots de passe faibles; et manquent de transparence quant à leur propriété et aux modèles d'IA qui les alimentent.
Étant donné que Openai a déchaîné le chatppt dans le monde en novembre 2022, les développeurs ont couru pour déployer des modèles de grandes langues et créer des chatbots avec lesquels les gens peuvent interagir et payer pour s'abonner. La recherche de Mozilla donne un aperçu de la façon dont cette ruée vers l'or a peut-être négligé la vie privée des gens et des tensions entre les technologies émergentes et comment ils collectent et utilisent des données. Cela indique également comment les messages de chat des gens pourraient être abusés par des pirates.
De nombreux services de «petite amie AI» ou de chatbot romantique se ressemblent. Ils présentent souvent des images générées par l'IA-Femmes qui peuvent être sexualisées ou s'asseoir aux côtés de messages provocateurs. Les chercheurs de Mozilla ont examiné une variété de chatbots, notamment de grandes et petites applications, dont certaines prétendent être des «copines». D'autres offrent aux gens un soutien par l'amitié ou l'intimité, ou permettent un jeu de rôle et d'autres fantasmes.
«Ces applications sont conçues pour collecter une tonne d'informations personnelles», explique Jen Caltrider, le chef du projet pour l'équipe de la vie privée de Mozilla non incluse, qui a effectué l'analyse. «Ils vous poussent vers un jeu de rôle, beaucoup de sexe, beaucoup d'intimité, beaucoup de partage.» Par exemple, les captures d'écran de l'EVA AI Chatbot montrent un texte disant «j'adore quand vous m'envoyez vos photos et votre voix» et vous demandant si quelqu'un est «prêt à partager tous vos secrets et vos désirs».
Caltrider dit qu'il y a plusieurs problèmes avec ces applications et sites Web. De nombreuses applications peuvent ne pas être claires sur les données qu'ils partagent avec des tiers, où ils sont basés, ou qui les crée, dit Caltrider, ajoutant que certains permettent aux gens de créer des mots de passe faibles, tandis que d'autres fournissent peu d'informations sur l'IA qu'ils utiliser. Les applications analysées avaient toutes des cas d'utilisation différents et des faiblesses.
Prenez l'IA romantique, un service qui vous permet de «créer votre propre petite amie de l'IA». Les images promotionnelles sur sa page d'accueil représentent un chatbot envoyant un message disant: «Je viens d'acheter une nouvelle lingerie. Tu veux le voir? Les documents de confidentialité de l'application, selon le Analyse de Mozilladites qu'il ne vendra pas les données des gens. Cependant, lorsque les chercheurs ont testé l'application, ils l'ont trouvé «envoyé 24 354 trackers publicitaires dans une minute suivant leur utilisation». L'IA romantique, comme la plupart des entreprises soulignées dans les recherches de Mozilla, n'a pas répondu à la demande de commentaires de Wired. D'autres applications surveillées avaient des centaines de trackers.
En général, dit Caltrider, les applications ne sont pas claires sur les données qu'ils peuvent partager ou vendre, ni exactement comment ils utilisent certaines de ces informations. «La documentation juridique était vague, difficile à comprendre, pas très spécifique – un peu de trucs passe-partout», explique Caltrider, ajoutant que cela pourrait réduire la confiance que les gens devraient avoir dans les entreprises.