Real-Time Video Deepfake Scams Are Here. This Tool Attempts to Zap Them

Le plan de réalité Defender pour le détecteur en temps réel est de commencer par un plug-in pour Zoom qui peut faire des prédictions actives pour savoir si les autres sur un appel vidéo sont des imitations réelles ou alimentées par AI. L'entreprise travaille actuellement sur l'analyse comparative de l'outil pour déterminer à quel point il discerne avec précision les vrais participants vidéo de faux. Malheureusement, ce n'est pas quelque chose que vous pourrez probablement essayer bientôt. La nouvelle fonctionnalité logicielle ne sera disponible en bêta que pour certains des clients de la startup.

Cette annonce n'est pas la première fois qu'une entreprise technologique partage des plans pour aider à repérer DeepFakes en temps réel. En 2022, Intel a fait ses débuts Outil FAKECatcher pour la détection profonde. Le Fakecatcher est conçu pour analyser les changements dans le flux sanguin d'un visage afin de déterminer si un participant vidéo est réel. L'outil d'Intel n'est pas non plus accessible au public.

Les chercheurs universitaires examinent également différentes approches pour lutter contre ce type spécifique de menace profonde. «Ces systèmes deviennent si sophistiqués pour créer des FAKES DEEP. Nous avons besoin encore de données maintenant », explique Govind Mittal, doctorant en informatique à l'Université de New York. «Si j'ai 10 photos de moi sur Instagram, quelqu'un peut prendre cela. Ils peuvent cibler les gens normaux. »

Les fesses profondes en temps réel ne se limitent plus aux milliardaires, des personnalités publiques ou à ceux qui ont de vastes présences en ligne. Les recherches de Mittal à NYU, avec les professeurs Chinmay Hegde et Nasir Memon, propose un potentiel Approche basée sur les défis Pour bloquer AI-Bots à partir d'appels vidéo, où les participants devraient passer une sorte de test de Captcha vidéo avant de se joindre.

Alors que le défenseur de la réalité s'efforce d'améliorer la précision de détection de ses modèles, Colman dit que l'accès à plus de données est un défi essentiel à surmonter – un refrain courant du lot actuel de startups axées sur l'IA. Il espère que plus de partenariats combleront ces lacunes, et sans détails, des conseils sur plusieurs nouvelles offres à venir l'année prochaine. Après qu'ElevenLabs a été lié à un appel à la voix profonde du président américain Joe Biden, la startup AI-Audio conclu un accord avec le défenseur de la réalité pour atténuer une utilisation abusive potentielle.

Que pouvez-vous faire maintenant pour vous protéger des escroqueries d'appels vidéo? Tout comme les conseils principaux de Wired pour éviter la fraude des appels vocaux de l'IA, ne pas devenir arrogant pour savoir si vous pouvez repérer des vidéos Deepfakes est essentielle pour éviter d'être arnaqué. La technologie de cet espace continue d'évoluer rapidement, et tous les signes révélateurs sur lesquels vous comptez maintenant pour repérer les fesseurs d'IA peuvent ne pas être aussi fiables avec les prochaines mises à niveau vers des modèles sous-jacents.

«Nous ne demandons pas à ma mère de 80 ans de signaler les ransomwares dans un e-mail», explique Colman. «Parce qu'elle n'est pas une experte en informatique.» À l'avenir, il est possible que l'authentification vidéo en temps réel, si la détection de l'IA continue de s'améliorer et montre une précision de manière fiable, sera considérée comme acquise que ce scanner malware fredonnant discrètement en arrière-plan de votre boîte de réception.