AI-Generated Voice Deepfakes Aren’t Scary Good—Yet

Hassold dit que sa grand-mère a été victime d’une usurpation d’identité au milieu des années 2000 lorsque des agresseurs l’ont appelé et se sont fait passer pour lui, la persuadant de leur envoyer 1 500 $.

“Avec ma grand-mère, l’escroc n’a pas dit qui l’appelait au départ, ils ont juste commencé à raconter comment ils avaient été arrêtés alors qu’ils assistaient à un festival de musique au Canada et qu’ils avaient besoin qu’elle leur envoie de l’argent pour une caution. Sa réponse a été “Crane, c’est toi ?” et puis ils avaient exactement ce dont ils avaient besoin », dit-il. « Les escrocs incitent essentiellement leurs victimes à croire ce qu’elles veulent leur faire croire. »

Comme pour de nombreuses escroqueries d’ingénierie sociale, les escroqueries par usurpation d’identité vocale fonctionnent mieux lorsque la cible est prise dans un sentiment d’urgence et essaie simplement d’aider quelqu’un ou d’accomplir une tâche qu’elle estime relever de sa responsabilité.

“Ma grand-mère m’a laissé un message vocal pendant que j’allais au travail en voiture disant quelque chose comme ‘J’espère que tu vas bien. Ne t’inquiète pas, j’ai envoyé l’argent et je ne le dirai à personne'”, dit Hassold.

Justin Hutchens, directeur de la recherche et du développement de la société de cybersécurité Set Solutions, déclare qu’il considère les escroqueries vocales deepfake comme une préoccupation croissante, mais il s’inquiète également d’un avenir dans lequel les escroqueries basées sur l’IA deviendront encore plus automatisées.

“Je m’attends à ce que dans un avenir proche, nous commencions à voir des acteurs malveillants combiner la technologie de la voix deepfake avec les interactions conversationnelles prises en charge par de grands modèles de langage”, déclare Hutchens à propos de plateformes comme ChatGPT d’Open AI.

Pour l’instant, cependant, Hassold met en garde contre le fait de supposer trop rapidement que les escroqueries par usurpation d’identité vocale sont motivées par des deepfakes. Après tout, la version analogique de l’arnaque est toujours là et toujours convaincante pour la bonne cible au bon moment.