OpenAI Is Testing Its Powers of Persuasion
Cette semaine, Sam Altman, PDG d'Openai, et Arianna Huffington, fondatrice et PDG de The Health Company Thrive Global, publié Un article à temps vantard Prospérerune startup soutenue par Thrive et Openai's Startup Fund. La pièce suggère que l'IA pourrait avoir un impact positif énorme sur la santé publique en parlant des gens dans un comportement plus sain.
Altman et Huffington écrivent que Thrive IA travaille à «un coach personnel entièrement intégré qui offre des coups de pied et des recommandations en temps réel qui vous permet de prendre des mesures sur vos comportements quotidiens pour améliorer votre santé».
Leur vision met un tour positif sur ce qui pourrait bien s'avérer être l'un des doubles les plus nets de l'IA. Les modèles d'IA sont déjà aptes à persuader les gens, et nous ne savons pas à quel point ils pourraient devenir plus puissants à mesure qu'ils avancent et accéder à des données plus personnelles.
Aleksander Madry, professeur sabbatique du Massachusetts Institute of Technology, dirige une équipe d'Openai appelée préparation qui travaille sur ce problème.
“L'un des flux de travail dans la préparation est la persuasion”, a déclaré Madry à Wired dans une interview en mai. «Essentiellement, en pensant dans quelle mesure vous pouvez utiliser ces modèles comme un moyen de persuader les gens.»
Madry dit qu'il a été dessiné pour rejoindre Openai par le potentiel remarquable des modèles de langue et parce que les risques qu'ils posent ont à peine été étudiés. «Il n'y a littéralement aucune science», dit-il. “C'était l'élan pour l'effort de préparation.”
La persuasion est un élément clé dans les programmes comme Chatgpt et l'un des ingrédients qui rend ces chatbots si convaincants. Les modèles linguistiques sont formés à l'écriture humaine et au dialogue qui contient d'innombrables astuces et techniques rhétoriques et suasives. Les modèles sont également généralement affinés pour se tromper vers les énoncés que les utilisateurs trouvent plus convaincants.
Recherche libéré En avril par Anthropic, un concurrent fondé par Openai Exiles, suggère que les modèles de langue sont devenus meilleurs pour persuader les gens à mesure qu'ils ont grandi en taille et en sophistication. Cette recherche a consisté à donner aux volontaires une déclaration, puis à voir comment un argument généré par l'IA change leur opinion.
Le travail d'Openai s'étend à l'analyse de l'IA dans la conversation avec les utilisateurs, ce qui peut débloquer une plus grande persuasion. Madry dit que les travaux sont menés sur des bénévoles consentants et refuse de révéler les résultats à ce jour. Mais il dit que la puissance persuasive des modèles de langage est profonde. «En tant qu'êtres humains, nous avons cette« faiblesse »que si quelque chose communique avec nous en langage naturel [we think of it as if] C'est un humain », dit-il, faisant allusion à un anthropomorphisme qui peut rendre les chatbots plus réaliste et convaincants.
L'article de temps fait valoir que les avantages potentiels pour la santé de l'IA persuasif nécessiteront de solides garanties juridiques car les modèles peuvent avoir accès à tant d'informations personnelles. «Les décideurs politiques doivent créer un environnement réglementaire qui favorise l'innovation de l'IA tout en protégeant la vie privée», écrivent Altman et Huffington.
Ce n'est pas tout ce que les décideurs devront considérer. Il peut également être crucial de peser à quel point des algorithmes de plus en plus persuasifs pourraient être utilisés à mauvais escient. Les algorithmes d'IA pourraient améliorer la résonance de la désinformation ou générer des escroqueries de phishing particulièrement convaincantes. Ils pourraient également être utilisés pour annoncer des produits.
Madry dit qu'une question clé, à étudier par OpenAI ou d'autres, est la plus grande partie des programmes d'IA convaincants ou coercitifs qui interagissent avec les utilisateurs sur de longues périodes pourraient s'avérer. Déjà un certain nombre d'entreprises proposent des chatbots qui jouent en tant que partenaires romantiques et autres personnages. Les copines de l'IA sont de plus en plus populaires – certaines sont même conçues pour vous crier dessus, mais à quel point ces robots sont addictifs et persuasifs.
L'excitation et le battage médiatique générés par Chatgpt après sa sortie en novembre 2022 ont vu Openai, des chercheurs extérieurs et de nombreux décideurs politiques se concentrant sur la question plus hypothétique de savoir si l'IA pouvait un jour se retourner contre ses créateurs.
Madry dit que ces risques ignorent les dangers les plus subtils posés par des algorithmes à la langue argentée. «Je crains qu'ils se concentrent sur les mauvaises questions», dit Madry à propos du travail des décideurs politiques jusqu'à présent. “C'est dans un certain sens, tout le monde dit:” Oh oui, nous le manipulons parce que nous en parlons “, quand en fait, nous ne parlons pas de la bonne chose.”