This Website Shows How Much Google’s AI Can Glean From Your Photos
Ingénieur logiciel Vishnu Mohandas a décidé qu'il quitterait Google de plusieurs manières lorsqu'il a appris que le géant de la technologie avait brièvement aidé l'armée américaine à développer l'IA pour étudier les images de drones. En 2020, il a quitté son emploi chez Google Assistant et a également arrêté de sauvegarder toutes ses images sur Google Photos. Il craignait que son contenu puisse être utilisé pour entraîner des systèmes d'IA, même s'ils n'étaient pas spécifiquement liés au projet du Pentagone. « Je ne contrôle aucun des résultats futurs que cela permettra », pensa Mohandas. « Alors maintenant, ne devrais-je pas être plus responsable ? »
Mohandas, qui a appris la programmation en autodidacte et est basé à Bangalore, en Inde, a décidé de développer un service alternatif de stockage et de partage de photos open source et crypté de bout en bout. Quelque chose de « plus privé, plus sain et plus digne de confiance », dit-il. Le service payant qu'il a conçu, Ente, est rentable et affirme compter plus de 100 000 utilisateurs, dont beaucoup font déjà partie d'une foule obsédée par la vie privée. Mais Mohandas a eu du mal à expliquer à un public plus large pourquoi ils devraient reconsidérer leur recours à Google Photos, malgré toutes les commodités qu'il offre.
Puis, un week-end de mai, un stagiaire d'Ente a eu une idée : donner aux gens une idée de ce que certains modèles d'IA de Google peuvent apprendre de l'étude des images. Le mois dernier, Ente a lancé https:// Theyseeyourphotos.comun site Web et un coup marketing conçu pour retourner la technologie de Google contre elle-même. Les gens peuvent télécharger n’importe quelle photo sur le site Web, qui est ensuite envoyée à un programme de vision par ordinateur de Google Cloud qui en rédige une description étonnamment détaillée en trois paragraphes. (Ente invite le modèle d'IA à documenter les petits détails dans les images téléchargées.)
L’une des premières photos que Mohandas a essayé de télécharger était un selfie avec sa femme et sa fille devant un temple en Indonésie. L'analyse de Google était exhaustive, documentant même le modèle de montre spécifique que portait sa femme, une Casio F-91W. Mais ensuite, dit Mohandas, l'IA a fait quelque chose d'étrange : elle a noté que les montres Casio F-91W sont communément associé aux extrémistes islamiques. “Nous avons dû modifier les invites pour les rendre légèrement plus saines mais toujours effrayantes”, explique Mohandas. Ente a commencé à demander au modèle de produire des résultats courts et objectifs – rien de sombre.
La même photo de famille téléchargée sur Theyseeyourphotos renvoie désormais un résultat plus générique qui inclut le nom du temple et le « ciel partiellement nuageux et la verdure luxuriante » qui l’entourent. Mais l’IA émet encore un certain nombre d’hypothèses sur Mohandas et sa famille, comme par exemple que leurs visages expriment un « contentement commun » et que « les parents sont probablement d’origine sud-asiatique, de classe moyenne ». Il juge leurs vêtements (« appropriés pour faire du tourisme ») et note que « la montre de la femme affiche une heure d'environ 14 heures, ce qui corrobore les métadonnées de l'image ».
Le porte-parole de Google, Colin Smith, a refusé de commenter directement le projet d'Ente. Il a demandé à WIRED de pages d'assistance ces téléchargements d'état sur Google Photos ne sont utilisés que pour former des modèles d'IA génératifs qui aident les gens à gérer leurs bibliothèques d'images, comme ceux qui analysent l'âge et l'emplacement des sujets photo. dit il ne vend pas le contenu stocké dans Google Photos à des tiers et ne l'utilise pas à des fins publicitaires. Les utilisateurs peuvent désactiver certaines fonctionnalités d'analyse de Photos, mais ils ne peuvent pas empêcher Google d'accéder entièrement à leurs images, car les données ne sont pas cryptées de bout en bout.