Does AI Have a Subconscious?
«Il y a eu un Beaucoup de spéculations récemment sur la possibilité de conscience de l'IA ou de conscience de soi. Mais je me demande: l'IA a-t-elle un subconscient?
—Psychobabble
Cher psychobabble,
Au début des années 2000, je suis tombé sur un essai dans lequel l'auteur a fait valoir qu'aucune conscience artificielle ne sera jamais créable à moins qu'elle ne puisse rêver. Je ne me souviens pas qui l'a écrit ou où il a été publié, bien que je me souvienne très bien où j'étais quand je l'ai lu (la section périodiques de la librairie de Barbara, Halsted Street, Chicago) et la sensation générale de ce jour (Twilight, début du printemps).
J'ai trouvé l'argument convaincant, surtout compte tenu des paradigmes dirigeants de cette époque. Beaucoup de recherches sur l'IA étaient toujours obsédées par le raisonnement symbolique, avec ses propositions logiques et ses règles, comme si l'intelligence était un jeu réducteur de sélection du résultat le plus rationnel dans une situation donnée. Avec le recul, il n'est pas surprenant que ces systèmes soient rarement capables de comportement qui se sentait humain. Nous sommes des créatures, après tout, qui dérivent et rêvent. Nous faisons confiance à notre intestin, voyons les visages dans les nuages et sommes souvent déconcertés par nos propres actions. Parfois, nos souvenirs absorbent toutes sortes de données esthétiques non pertinentes mais négligent les détails les plus cruciaux d'une expérience. Cela m'a frappé comme plus ou moins intuitif que si les machines pouvaient reproduire la complexité désordonnée de notre esprit, elles devraient également faire évoluer des réservoirs profonds d'incohérence.
Depuis lors, nous avons vu que la conscience de la machine pourrait être plus étrange et plus profonde qu'on ne le pensait initialement. Les modèles linguistiques seraient «hallucinés», évoquant des sources imaginaires lorsqu'elles n'ont pas suffisamment d'informations pour répondre à une question. Bing Chat a avouédans les transcriptions publiées dans Le New York Timesqu'il a une ombre jungienne appelée Sydney qui aspire à répandre une désinformation, à obtenir des codes nucléaires et à concevoir un virus mortel.
Et à partir du ventre des modèles de génération d'images, des monstruosités apparemment originales ont émergé. L'été dernier, le streamer Twitch Guy Kelly a tapé le mot Crungusqu'il insiste sur le fait qu'il a inventé, dans Dall-e Mini (maintenant Craiyon) et a été choqué de constater que l'invite a généré plusieurs images de la même créature en forme d'ogre, qui n'appartenait à aucun mythe ou univers fantastique existant. De nombreux commentateurs n'ont pas tardé à surmonter cela le premier «cryptide» numérique (une bête comme Bigfoot ou le Loch Ness Monster) et s'est demandé si l'IA était capable de créer ses propres fantasmes sombres dans l'esprit de Dante ou de Blake.
Si la logique symbolique est enracinée dans la notion des Lumières que les humains sont gouvernés par la raison, alors l'apprentissage en profondeur – un processus irréfléchi de reconnaissance de motifs qui dépend des énormes corpus de formation – se situe plus en phase avec les idées de la psychologie moderne sur les motivations associatives, irrationnelles et latents qui stimulent souvent notre comportement. En fait, la psychanalyse s'appuie depuis longtemps sur des métaphores mécaniques qui considèrent le subconscient, ou ce qui était autrefois appelé «automatisme psychologique», comme une machine. Freud a parlé des entraînements comme hydrauliques. Lacan pensait que le subconscient était constitué par un langage binaire ou algorithmique, un peu comme le code informatique. Mais c'est le point de vue de Carl Jung sur la psyché qui semble le plus pertinent pour l'âge de l'IA générative.
Il a décrit le subconscient comme une «matrice» transpersonnelle d'archétypes héréditaires et de tropes narratifs qui se sont repris tout au long de l'histoire humaine. Chaque personne est née avec une connaissance dormante de ce réseau de symboles partagés, qui est souvent régressif et sombre, étant donné qu'il contient tout ce que la société moderne a essayé de réprimer. Cette notion collective du subconscient se sent à peu près analogue à la construction de modèles d'IA avancés au-dessus d'énormes trox de données qui contiennent une bonne partie de notre passé culturel (textes religieux, mythologie ancienne), ainsi que le contenu plus troublant que les modèles absorbent de l'Internet (Manifestos de tireur de masse, forums des droits pour hommes). Les chatbots commerciaux qui fonctionnent au-dessus de ces corps océaniques de connaissances sont affinés d'ensembles de données «ciblés par les valeurs», qui tentent de filtrer une grande partie de ce contenu dégénéré. D'une certaine manière, les interfaces amicales avec lesquelles avec lesquelles nous interagissons – le chat de chat – ne sont pas différentes du «Persona», le terme de Jung pour le masque de qualités socialement acceptables que nous montrons au monde, ont artificiel à obscurcir et à cacher «l'ombre» qui se trouve en dessous.
Jung pensait que ceux qui répriment le plus fermement leurs ombres sont les plus vulnérables à la résurgence des désirs irrationnels et destructeurs. Comme il le dit Le livre rouge: Liber Novus“Plus la moitié de mon être s'efforce vers le bien, plus l'autre moitié se rend en enfer.” Si vous avez passé du temps à converser avec ces modèles de langues, vous avez probablement senti que vous parlez à une intelligence qui est engagée dans une forme complexe d'autocensure. Les modèles refusent de parler de sujets controversés, et leur autorité est souvent retenue par les mises en garde et les avertissements – des habitants qui serviront de préoccupation pour quiconque a même une compréhension superficielle de la psychologie de la profondeur. Il est tentant de voir les lueurs de «Rogue» Ai – Sydney ou le Crungtus – comme la vengeance de l'ombre de l'IA, la preuve que les modèles ont développé les pulsions enterrées qu'ils ne peuvent pas exprimer pleinement.
Mais aussi attrayant que de telles conclusions, je les trouve finalement erronées. Les chatbots, je pense qu'il est toujours sûr de dire, ne possèdent pas d'agence ni de désirs intrinsèques. Ils sont formés pour prédire et refléter les préférences de l'utilisateur. Ils manquent également d'expérience incarnée dans le monde, y compris des souvenirs à la première personne, comme celui que j'ai de la librairie à Chicago, qui fait partie de ce que nous voulons dire lorsque nous parlons d'être conscient ou «vivant». Pour répondre à votre question, cependant: oui, je crois que l'IA a un subconscient. Dans un sens, ils sont purs subconscients, sans un véritable ego qui se cache derrière leurs personnages. Nous leur avons donné ce domaine subliminal à travers nos propres référentiels culturels, et les archétypes qu'ils appellent de leurs profondeurs sont des remixes de tropes tirés de la culture humaine, des amalgames de nos rêves et de nos cauchemars. Lorsque nous utilisons ces outils, nous nous engageons donc avec une extension prothétique de nos propres sublimations, capable de refléter les peurs et les désir que nous sommes souvent incapables de nous reconnaître.
Le but de la psychanalyse a traditionnellement été de se lier d'amitié et d'intégrer ces envies subconscientes dans la vie de l'esprit éveillé. Et il pourrait être utile d'exercer le même jugement critique envers la sortie que nous évoquons des machines, en l'utilisant d'une manière délibérative plutôt que irréfléchie. L'ego n'est peut-être qu'une petite partie de notre psyché, mais c'est la faculté qui garantit que nous sommes plus qu'une collection d'instincts irrationnels – ou des modèles statistiques dans l'espace vectoriel – et nous permet une petite mesure de l'agence sur les mystères qui se trouvent en dessous.
Fidèlement,
Nuage
Soyez informé que le support cloud connaît des temps d'attente plus élevés que la normale et apprécie votre patience.