ChatGPT Has a Plug-In Problem

Par le passé Huit mois, Chatgpt a impressionné des millions de personnes avec sa capacité à générer texte réalisteécrivant tout, des histoires au code. Mais le chatbot, développé par Openai, est encore relativement limité dans ce qu'il peut faire.

Le modèle grand langage (LLM) prend les “invites” des utilisateurs qu'il utilise pour générer du texte ostensiblement lié. Ces réponses sont créées en partie à partir de données grattées d'Internet en septembre 2021, et elles n'attirent pas de nouvelles données du Web. Entrez les plug-ins, qui ajoutent des fonctionnalités mais ne sont disponibles qu'aux personnes qui paient pour l'accès à GPT-4, la version mise à jour du modèle d'Openai.

Depuis que OpenAI a lancé des plug-ins pour Chatgpt en mars, les développeurs ont couru pour créer et publier des plug-ins qui permettent au chatbot de faire beaucoup plus. Les plug-ins existants vous permettent de rechercher des vols et de planifier des voyages, et de le faire pour que le chatppt puisse accéder et analyser du texte sur les sites Web, dans des documents et sur des vidéos. D'autres plug-ins sont plus de niche, vous promettant la possibilité de discuter avec le manuel du propriétaire de Tesla ou de fouiller les discours politiques britanniques. Il y a actuellement plus de 100 pages de plug-ins répertoriées sur la boutique de plug-in de Chatgpt.

Mais au milieu de l'explosion de ces extensions, les chercheurs en sécurité affirment qu'il y a des problèmes avec le fonctionnement des plug-ins, ce qui peut mettre les données des gens en danger ou potentiellement être abusés par des pirates malveillants.

Johann Rehberger, directeur de l'équipe rouge chez Electronic Arts and Security Researcher, a documenté des problèmes avec les plug-ins de Chatgpt pendant son temps libre. Le chercheur a documenté comment les plug-ins Chatgpt pourraient être utilisés pour voler L'historique du chat de quelqu'unobtenir Informations personnelles et permettez à le code d'être exécuté à distance sur la machine de quelqu'un. Il s'est principalement concentré sur les plug-ins qui utilisent OAuth, une norme Web qui vous permet de partager des données sur des comptes en ligne. Rehberger dit qu'il a été en contact en privé avec environ une demi-douzaine de développeurs de plug-in pour soulever des problèmes, et a contacté Openai une poignée de fois.

«Chatgpt ne peut pas faire confiance au plug-in», explique Rehberger. “Il ne peut fondamentalement pas faire confiance à ce qui revient du plug-in, car cela pourrait être n'importe quoi.” Un site Web ou un document malveillant pourrait, grâce à l'utilisation d'un plug-in, tenter d'exécuter une attaque d'injection rapide contre le modèle grand langage (LLM). Ou il pourrait insérer des charges utiles malveillantes, dit Rehberger.

Les données pourraient également être volées à travers Cross Perg-In Demande Falsedit le chercheur. Un site Web pourrait inclure une injection rapide qui fait ouvrir un autre plug-in et effectuer des actions supplémentaires, qu'il a montrées via un preuve de concept. Les chercheurs appellent cela «chaînage», où un plug-in appelle un autre à fonctionner. «Il n'y a pas de véritables limites de sécurité» dans les plug-ins Chatgpt, dit Rehberger. «Ce n'est pas très bien défini, quelle est la sécurité et la confiance, quelles sont les responsabilités réelles [are] de chaque partie prenante.

Depuis leur lancement en mars, les plug-ins de Chatgpt ont été en version bêta – essentiellement une version expérimentale précoce. Lorsque vous utilisez des plug-ins sur chatgpt, le système prévient que les gens devraient faire confiance à un plug-in avant de l'utiliser, et que le plug-in pour fonctionner peut avoir besoin d'envoyer votre conversation et d'autres données au plug-in.