Deepfakes Are Evolving. This Company Wants to Catch Them All

Certaines sociétés du Fortune 500 ont commencé à tester des logiciels qui peuvent repérer le Foke d'une personne réelle dans un appel vidéo en direct, à la suite d'une série d'escroqueries impliquant des demandeurs d'emploi frauduleux qui prennent un bonus de signature et courent.

La technologie de détection est gracieuseté de GetReal Labs, une nouvelle société fondée par Ami hanyun professeur UC-Berkeley et une autorité renommée sur Deepfakes et la manipulation d'image et de vidéo.

GetReal Labs a développé une suite d'outils pour repérer des images, des audio et des vidéos générées ou manipulées avec une intelligence artificielle ou des méthodes manuelles. Le logiciel de l'entreprise peut analyser le visage dans un appel vidéo et des indices ponctuels qui peuvent indiquer qu'il a été généré artificiellement et échangé sur le corps d'une vraie personne.

«Ce ne sont pas des attaques hypothétiques, nous en avons entendu parler de plus en plus», explique Farid. «Dans certains cas, il semble qu'ils essaient d'obtenir une propriété intellectuelle, infiltrant l'entreprise. Dans d'autres cas, il semble purement financier, ils prennent simplement le bonus de signature. »

Le FBI a émis un avertissement en 2022 sur les chasseurs d'emplois Deepfake qui assument l'identité d'une vraie personne lors des appels vidéo. ARUP de conception et d'ingénierie basée au Royaume-Uni perdu 25 millions de dollars à un escroc Deepfake se faisant passer pour le directeur financier de la société. Les escrocs romantiques ont également adopté la technologie, en escalader les victimes sans méfiance de leurs économies.

L'identité d'une vraie personne sur un flux vidéo en direct n'est qu'un exemple du genre de supercherie qui mette la réalité maintenant possible grâce à l'IA. Les modèles de grands langues peuvent imiter de manière convaincante une vraie personne dans le chat en ligne, tandis que de courtes vidéos peuvent être générées par des outils comme Sora d'Openai. Les progrès impressionnants de l'IA ces dernières années ont rendu la profondeur plus convaincante et plus accessible. Le logiciel gratuit permet de perfectionner facilement les compétences en profondeur, et les outils d'IA facilement accessibles peuvent transformer les invites de texte en photographies et vidéos réalistes.

Mais l'identification d'une personne dans une vidéo en direct est une frontière relativement nouvelle. La création de ce type defake Deep implique généralement d'utiliser un mélange d'apprentissage automatique et d'algorithmes de suivi du visage pour coudre parfaitement un faux visage sur un vrai, permettant à un intrus de contrôler ce qu'une ressemblance illicite semble dire et faire à l'écran.

Farid a donné à Wired une démo de la technologie de Getreal Labs. Lorsqu'il a montré une photographie d'une salle de conférence d'entreprise, le logiciel analyse les métadonnées associées à l'image pour les signes qu'elle a été modifiée. Plusieurs grandes sociétés d'IA, dont OpenAI, Google et Meta, ajoutent désormais des signatures numériques aux images générées par l'IA, offrant un moyen solide de confirmer leur inauthenticité. Cependant, tous les outils ne fournissent pas de tels timbres et les générateurs d'images open source peuvent être configurés à ne pas le faire. Les métadonnées peuvent également être facilement manipulées.

Un gif de reconnaissance faciale en temps réel utilisé par Will Knight

GIF: Will Knight