How ChatGPT—and Bots Like It—Can Spread Malware

Cependant, ces protections ne sont pas trop difficiles à contourner: le chatgpt peut certainement coder, et il peut certainement composer des e-mails. Même s'il ne sait pas qu'il écrit des logiciels malveillants, il peut être invité à produire quelque chose comme ça. Il y a Déjà des signes que les cybercriminels travaillent pour contourner les mesures de sécurité qui ont été mises en place.

Nous ne choisissons pas particulièrement sur Chatgpt ici, mais en soulignant ce qui est possible une fois que les modèles de gros langues (LLM) comme il sont utilisés à des fins plus sinistres. En effet, il n'est pas trop difficile d'imaginer que des organisations criminelles développent leurs propres LLM et outils similaires afin de rendre leurs escroqueries plus convaincantes. Et ce n'est pas seulement le texte non plus: l'audio et la vidéo sont plus difficiles à simuler, mais cela se produit également.

En ce qui concerne votre patron, vous demandez un rapport de toute urgence, ou le support technologique de l'entreprise vous disant d'installer un patch de sécurité, ou votre banque vous informant qu'il y a un problème auquel vous devez répondre – toutes ces escroqueries potentielles comptent sur la construction de la confiance et le fait d'être authentiques, et c'est quelque chose que les robots AI sont Faire très bien à. Ils peuvent produire du texte, de l'audio et des vidéos qui semblent naturels et adaptés à un public spécifique, et ils peuvent le faire rapidement et constamment à la demande.

Alors, y a-t-il un espoir pour nous, les humains, dans la vague de ces menaces propulsées par l'IA? Est la seule option pour abandonner et accepter notre sort? Pas tout à fait. Il existe encore des moyens de minimiser vos chances d'être arnaqué par les dernières technologies, et elles ne sont pas si différentes des précautions auxquelles vous devriez déjà penser.

Comment se prémunir contre les escroqueries alimentées par l'IA

Il existe deux types de menaces de sécurité liées à l'IA à penser. Le premier implique des outils tels que Chatgpt ou MidJourney utilisé pour vous faire installer quelque chose que vous ne devriez pas, comme un plugin de navigateur. Vous pourriez être amené à payer un service lorsque vous n'avez pas besoin, peut-être, ou à utiliser un outil qui semble officiel mais ne l'est pas.

Pour éviter de tomber dans ces pièges, assurez-vous que vous êtes à jour avec ce qui se passe avec les services d'IA comme ceux que nous avons mentionnés, et allez toujours à la source d'origine en premier. Dans le cas de Chatgpt par exemple, il n'y a pas d'application mobile officiellement approuvée et l'outil est uniquement sur le Web. Les règles standard s'appliquent lorsque vous travaillez avec ces applications et leurs retombées: vérifiez leur historique, les avis qui leur sont associés et les entreprises derrière elles, tout comme vous le feriez lors de l'installation de tout nouveau logiciel.

Le deuxième type de menace est potentiellement plus dangereux: l'IA qui est utilisée pour créer du texte, de l'audio ou de la vidéo qui semble convaincante. La sortie pourrait même être utilisée pour imiter quelqu'un que vous connaissez – comme le cas de l'enregistrement vocal prétendument d'un directeur général Demander une libération urgente de fonds, qui a dupé un employé de l'entreprise.

Bien que la technologie ait évolué, les mêmes techniques sont toujours utilisées pour essayer de vous faire faire quelque chose d'urgence qui semble légèrement (ou très) inhabituel. Prenez votre temps, revérifiez dans la mesure du possible en utilisant différentes méthodes (un appel téléphonique pour vérifier un e-mail ou vice versa), et faites attention aux drapeaux rouges – une limite de temps sur ce qu'on vous demande de faire, ou une tâche qui est hors de l'ordinaire.