Criminals Have Created Their Own ChatGPT Clones
Dans les articles du forum, le développeur de Wormpt a affirmé que le système avait été construit sur le modèle de langue GPTJ, un modèle de langue open source qui a été développé par le groupe de recherche AI Eleutherai en 2021. Ils ont refusé de divulguer les ensembles de données qu'ils ont utilisés pour former le système, selon les recherches de Kelley.
Pendant ce temps, le créateur de fraudegpt a revendiqué un potentiel plus élevé pour leur système, suggérant qu'il pourrait «créer des logiciels malveillants indétectables» et trouver des fuites et des vulnérabilités, ainsi que de l'élaboration de texte qui pourrait être utilisé dans les escroqueries en ligne. Rakesh Krishnan, analyste des menaces principales à La société de sécurité Netenrich qui a trouvé Fraudgptdit que la personne qui l'a vendue a annoncé le produit sur plusieurs forums Dark Web et également sur les canaux télégrammes.
Krishnan dit le Le créateur du système a publié une vidéo semblant afficher le chatbot fonctionnant et générant un e-mail arcmale. Ils essayaient également de vendre l'accès au système pour 200 $ par mois, ou un coût annuel de 1 700 $. Krishnan dit que dans les conversations avec le développeur derrière Fraudgpt, ils ont affirmé avoir quelques centaines d'abonnés et poussé à une vente, tandis que le créateur de Wormpt semblait avoir reçu des paiements dans une adresse de portefeuille de crypto-monnaie qu'ils partageaient. «Tous ces projets en sont à leurs balbutiements», explique Krishnan. Il ajoute: «nous n'avons pas beaucoup de commentaires» pour savoir si les gens achètent ou utilisent les systèmes.
Bien que ceux qui vantent les chatbots affirment qu'ils existent, il est difficile de vérifier le maquillage et la légitimité des systèmes. Les escrocs cybercrimins sont connus pour arnaquer d'autres escrocs, les recherches antérieures montrant qu'ils essaient fréquemment de se déchirer, ne fournissent pas ce qu'ils prétendent vendre et offrent un mauvais service client. Sergey Shykevich, directeur du groupe de renseignements sur les menaces de la société de sécurité Check Point, dit qu'il y a des indices que les gens utilisent WormgTP. «Il semble qu'il y ait un véritable outil», explique Shykevich. Le vendeur derrière l'outil est «relativement fiable» et a une histoire sur les forums de la cybercriminalité, dit-il.
Il y a plus de 100 réponses à un article sur le Wormgpt, dit Shykevich, bien que certains d'entre eux disent que le vendeur n'est pas très sensible à leurs demandes et que d'autres n'étaient pas très excités par le système. Shykevich est moins convaincu de l'authenticité de Fraudgpt – le vendeur a également affirmé avoir Systèmes appelés Darkbard et Darkbert. Shykevich dit que certains des messages du vendeur ont été retirés des forums. Quoi qu'il en soit, le chercheur du point de contrôle dit qu'il n'y a aucun signe que aucun des systèmes est plus capable que Chatgpt, Bard ou d'autres LLM commerciaux.
Kelley dit qu'il croit que les affirmations sur les LLM malveurs créées jusqu'à présent sont «légèrement surexagérées». Mais il ajoute: «Ce n'est pas nécessairement différent de ce que font les entreprises légitimes dans le monde réel.»
Malgré les questions sur les systèmes, il n'est pas surprenant que les cybercriminels souhaitent participer au boom de la LLM. Le Le FBI a averti que les cybercriminels envisagent d'utiliser une IA générative dans leur travail et l'agence européenne d'application de la loi Europol a émis un avertissement similaire. Les organismes d'application de la loi affirment que les LLM pourraient aider les cybercriminels à la fraude, à l'identité et à d'autres ingénieurs sociaux plus rapidement qu'auparavant et à améliorer leur anglais écrit.