Some People Actually Kind of Love Deepfakes

Il y a un mois, la société de conseil Accenture a présenté à un client potentiel un terrain inhabituel et accrocheur pour un nouveau projet. Au lieu du jeu de diapositives habituel, le client a vu DeepFakes de plusieurs employés réels debout sur une scène virtuelle, offrant des descriptions parfaitement livrées du projet sur lequel ils espéraient travailler.

«Je voulais qu'ils rencontrent notre équipe», explique Renato Scaff, directeur général senior chez Accenture qui a eu l'idée. «C'est aussi un moyen pour nous de nous différencier de la concurrence.»

Les Deepfakes ont été générés – avec le consentement des employés – par TouchCast, une entreprise Accenture a investi dans qui offre une plate-forme de présentations interactives mettant en vedette des avatars de personnes réelles ou synthétiques. Les avatars de TouchCast peuvent répondre aux questions typées ou parlées à l'aide de modèles d'IA qui analysent les informations pertinentes et générent des réponses à la volée.

“Il y a un élément de canon”, dit Scaff à propos de ses employés Deepfake. “Mais il y a un plus grand élément de cool.”

Deepfakes est une arme puissante et dangereuse de désinformation et de préjudice de réputation. Mais cette même technologie est adoptée par des entreprises qui la considèrent à la place comme une nouvelle façon intelligente et accrocheuse d'atteindre et d'interagir avec les clients.

Ces expériences ne sont pas limitées au secteur des entreprises. Monica Ares, directrice exécutive de l'innovation, de l'éducation numérique et du laboratoire d'analyse à l'Imperial College Business School à Londres, a créé des fesses profondes de vrais professeurs qu'elle espère être un moyen plus engageant et efficace de répondre aux questions et aux questions des étudiants en dehors de la classe. ARÉS dit que la technologie a le potentiel d'augmenter la personnalisation, de fournir de nouvelles façons de gérer et d'évaluer les étudiants et de stimuler l'engagement des étudiants. «Vous avez toujours la ressemblance d'un humain qui vous parle, donc c'est très naturel», dit-elle.

Comme c'est souvent le cas ces jours-ci, nous avons une IA à remercier pour cette démêlage de la réalité. Il est possible depuis longtemps que Hollywood Studios copie les voix, les visages et les manières des acteurs avec des logiciels, mais ces dernières années, l'IA a rendu la technologie similaire largement accessible et pratiquement gratuite. Outre Touchcast, des entreprises dont Synthèse et Heygen Offrez aux entreprises un moyen de générer des avatars de personnes réelles ou fausses pour les présentations, le marketing et le service client.

Edo Segal, fondateur et PDG de TouchCast, estime que les avatars numériques pourraient être une nouvelle façon de présenter et d'interagir avec le contenu. Son entreprise a développé une plate-forme logicielle appelée Genything qui permettra à n'importe qui de créer son propre jumeau numérique.

Dans le même temps, Deepfakes devient une préoccupation majeure alors que les élections se profilent dans de nombreux pays, y compris les États-Unis. Le mois dernier, des robocaux générés par l'AI avec un faux Joe Biden ont été utilisés pour répandre la désinformation électorale. Taylor Swift est également devenu récemment une cible du porno DeepFake généré à l'aide d'outils d'image AI largement disponibles.

“Les images DeepFake sont certainement quelque chose que nous trouvons concernant et alarmant”, ” Ben Buchanana déclaré le conseiller spécial de la Maison Blanche pour l'IA, a déclaré Wired dans une récente interview. Le Swift Deepfake «est un point de données clé dans une tendance plus large qui a un impact de manière disproportionnée aux femmes et aux filles, qui sont une cible massivement du harcèlement et des abus en ligne», a-t-il déclaré.

Un nouveau US AI Safety Institutecréé sous un décret exécutif de la Maison Blanche publié en octobre dernier, élabore actuellement des normes pour les médias générés par le filigrane AI. Meta, Google, Microsoft et d'autres sociétés technologiques développent également une technologie conçue pour repérer les contrefaçons de l'IA dans ce qui devient une course aux armement des IA à enjeux élevés.

Cependant, certaines utilisations politiques de DeepFakery mettent en évidence le double potentiel de la technologie.

Imran Khan, l'ancien Premier ministre du Pakistan, livré une adresse de ralliement aux disciples de sa fête samedi dernier malgré le fait d'être coincé derrière les barreaux. L'ancienne star de Cricket, emprisonnée dans ce que son parti a caractérisé comme un coup d'État militaire, a prononcé son discours en utilisant un logiciel DeepFake qui a évoqué une copie convaincante de lui assis derrière un bureau et des mots qui ne prononcent jamais.

À mesure que la manipulation vidéo alimentée par l'IA s'améliore et devient plus facile à utiliser, l'intérêt des entreprises et des consommateurs pour les utilisations légitimes de la technologie est susceptible de croître. Le géant chinois de la technologie Baidu récemment développer une manière Pour les utilisateurs de son application Chatbot, pour créer DeepFakes pour l'envoi de salutations du Nouvel An lunaire.

Même pour les premiers adoptants, le potentiel d'utilisation abusive n'est pas entièrement hors d'esprit. «Il ne fait aucun doute que la sécurité doit être primordiale», explique Scaff d'Accenture. “Une fois que vous avez un jumeau synthétique, vous pouvez les faire faire et dire n'importe quoi.”