Google Image Search Will Now Show a Photo’s History. Can It Spot Fakes?
Google a souligné que le champ de métadonnées dans «à propos de cette image» ne sera pas un moyen infaillible de voir les origines, ou la provenance, d'une image. Il est principalement conçu pour donner plus de contexte ou alerter l'intermédiaire d'Internet occasionnel si une image est beaucoup plus âgée qu'il n'y paraît – ce qui pourrait maintenant être réutilisé – ou s'il a été signalé comme problématique sur Internet auparavant.
Provenance, inférence, filigrane et alphabétisation des médias: ce ne sont que quelques-uns des mots et des phrases utilisés par les équipes de recherche qui sont désormais chargées d'identifier l'imagerie générée par ordinateur lorsqu'elle se multiplie de façon exponentielle. Mais tous ces outils sont à certains égards faillibles, et la plupart des entités – notamment Google – reconnaissant que repérer le faux contenu devra probablement être une approche à plusieurs volets.
Kate Knibbs de Wired a récemment rendu compte du filigrane, tamponnant numériquement des textes et des photos en ligne afin que leurs origines puissent être tracées, comme l'une des stratégies les plus prometteuses; Si promettant qu'Openai, Alphabet, Meta, Amazon et DeepMind de Google développent tous une technologie de filigrane. Knibbs a également rapporté la facilité avec laquelle les groupes de chercheurs ont pu «laver» certains types de filigranes des images en ligne.
Reality Defender, une startup de New York qui vend sa technologie DeepFake Detector aux agences gouvernementales, aux banques et aux sociétés technologiques et médiatiques, estime qu'il est presque impossible de connaître la «vérité fondamentale» de l'imagerie d'IA. Ben Colman, le cofondateur et chef de la direction de l'entreprise, a déclaré que l'établissement de la provenance est compliqué car il nécessite l'adhésion, de chaque fabricant vendant une machine à faire de l'image, autour d'un ensemble spécifique de normes. Il pense également que le filigrane peut faire partie d'une boîte à outils AI-spot, mais ce n'est pas «l'outil le plus fort de la boîte à outils».
Reality Defender se concentre plutôt sur l'inférence – essentiellement, en utilisant plus d'IA pour repérer l'IA. Son système analyse le texte, l'imagerie ou les actifs vidéo et donne une probabilité de 1 à 99% de savoir si l'actif est manipulé d'une manière ou d'une autre.
«Au plus haut niveau, nous sommes en désaccord avec toute exigence qui met le fardeau sur le consommateur à dire réel de Fake», explique Colman. «Avec les progrès de l'IA et de la fraude juste en général, même les doctorants dans notre chambre ne peuvent pas faire la différence entre réel et faux au niveau des pixels.»
À ce stade, «sur cette image» de Google existera en supposant que la plupart des internautes de côté Des chercheurs et des journalistes voudront en savoir plus sur cette image – et que le contexte fourni aidera à convertir la personne si quelque chose ne va pas. Google est également, à noter, l'entité qui a lancé ces dernières années l'architecture de transformateur qui comprend le T dans le chatgpt; le créateur d'un outil d'IA génératif appelé Bard; Le fabricant d'outils comme Magic Eraser et Magic Memory qui modifient les images et déforment la réalité. C'est le monde générateur de l'IA de Google, et la plupart d'entre nous essaient simplement de le repérer.