Now That ChatGPT Is Plugged In, Things Could Get Weird
Un certain nombre de projets open source tels que Lubriole et Llamaindex Explorent également des moyens de créer des applications en utilisant les capacités fournies par les modèles de grande langue. Le lancement des plugins d’Openai menace de torpiller ces efforts, dit Guo.
Les plugins peuvent également présenter des risques qui affligent les modèles AI complexes. Les membres de l’équipe rouge du plugin de Chatgpt ont constaté qu’ils pouvaient «envoyer des e-mails frauduleux ou spam, contourner les restrictions de sécurité ou une mauvaise utilisation envoyée au plugin», selon Emily Bender, professeur de linguistique à l’Université de Washington. «Laisser les systèmes automatisés agir dans le monde est un choix que nous faisons», ajoute Bender.
Dan Hendrycks, directeur du Center for AI Safety, un organisme sans but lucratif, estime que les plugins rendent les modèles de langage plus risqués à un moment où des entreprises comme Google, Microsoft et Openai sont faire du lobbying agressivement Pour limiter la responsabilité via la loi sur l’IA. Il appelle la sortie des plugins Chatgpt un mauvais précédent et soupçonne qu’il pourrait conduire d’autres fabricants de modèles de gros langues pour emprunter un itinéraire similaire.
Et bien qu’il puisse y avoir une sélection limitée de plugins aujourd’hui, la concurrence pourrait pousser Openai pour étendre sa sélection. Hendrycks voit une distinction entre les plugins Chatgpt et les efforts précédents des entreprises technologiques pour développer des écosystèmes de développeurs autour de l’IA conversationnelle, comme l’assistant vocal Alexa d’Amazon.
GPT-4 peut, par exemple, exécuter les commandes Linux, et le processus d’équipe rouge GPT-4 a trouvé que le modèle peut expliquer comment fabriquer des armes bio-armes, synthétiser des bombes ou acheter des ransomwares sur le Web sombre. Hendrycks suspecte les extensions inspirées des plugins Chatgpt pourraient faciliter les tâches comme le phishing de lance ou les e-mails de phishing.
Passer de la génération de texte à la prise de mesures au nom d’une personne érode un écart d’air qui a jusqu’à présent empêché les modèles de langage de prendre des mesures. «Nous savons que les modèles peuvent être jailbreakés et maintenant nous les connectons à Internet afin qu’il puisse potentiellement prendre des mesures», explique Hendrycks. “Cela ne veut pas dire que, par son propre chat de volonté, va construire des bombes ou quelque chose, mais cela facilite le fait de faire ce genre de choses.”
Une partie du problème avec les plugins pour les modèles de langage est qu’ils pourraient faciliter le jailakage de ces systèmes, explique Ali Alkhatib, directeur par intérim du Center for Applied Data Ethics à l’Université de San Francisco. Puisque vous interagissez avec l’IA en utilisant le langage naturel, il existe potentiellement des millions de vulnérabilités non découvertes. Alkhatib estime que les plugins ont des implications de grande envergure à un moment où des entreprises comme Microsoft et Openai embrouillent la perception du public avec des allégations récentes de progrès vers l’intelligence générale artificielle.
«Les choses évoluent assez vite pour être non seulement dangereuses, mais en fait nocives pour beaucoup de gens», dit-il, tout en exprimant que les entreprises ravies d’utiliser de nouveaux systèmes d’IA peuvent précipiter les plugins dans des contextes sensibles comme les services de conseil.
L’ajout de nouvelles capacités à des programmes d’IA comme Chatgpt pourrait avoir des conséquences imprévues, également, explique Kanjun Qiu, PDG de Généralement intelligentune entreprise d’IA travaillant sur des agents alimentés par l’IA. Un chatbot pourrait, par exemple, réserver un vol trop cher ou être utilisé pour distribuer le spam, et Qiu dit que nous devrons déterminer qui serait responsable d’une telle mauvaise conduite.
Mais QIU ajoute également que l’utilité des programmes d’IA connectés à Internet signifie que la technologie est imparable. «Au cours des prochains mois et années, nous pouvons nous attendre à ce qu’une grande partie d’Internet se connecte à de grands modèles de langage», explique Qiu.