What Isaac Asimov’s Robbie Teaches About AI and How Minds ‘Work’

Dans Isaac Asimov Story de science-fiction classique «Robbie», la famille Weston possède un robot qui sert de infirmière et compagnon pour leur préadolescente préadolescente, Gloria. Gloria et le robot Robbie sont amis; Leur relation est affectueuse et mutuellement attentionnée. Gloria considère Robbie comme son gardien fidèle et dévoué. Cependant, Mme Weston devient préoccupé par cette relation «contre nature» entre le robot et son enfant et s'inquiète de la possibilité que Robbie cause des dommages à Gloria (malgré le fait qu'il soit explicitement programmé de ne pas le faire); Il est clair qu'elle est jalouse. Après plusieurs tentatives infructueuses pour sevrer Gloria de Robbie, son père, exaspéré et usé par les protestations de la mère, suggère une visite d'une usine de robots – là, Gloria sera en mesure de voir que Robbie est «juste» un robot fabriqué, pas une personne, et tomber amoureux de cela. Gloria doit venir savoir comment fonctionne Robbie, comment il a été fait; Ensuite, elle comprendra que Robbie n'est pas qui elle pense être. Ce plan ne fonctionne pas. Gloria n'apprend pas comment Robbie «fonctionne vraiment» et, dans une torsion de l'intrigue, Gloria et Robbie deviennent des amis encore meilleurs. Mme Weston, le Spassport, est encore une fois déjoué. Gloria reste «trompée» sur qui Robbie «est vraiment».

Quelle est la morale de cette histoire? Plus important encore, que ceux qui interagissent et socialisent avec les agents artificiels, sans savoir (ou s'occuper) de la façon dont ils «fonctionnent vraiment» en interne, développeront des relations distinctes avec eux et leur attribueront ces qualités mentales appropriées à leurs relations. Gloria joue avec Robbie et l'aime en tant que compagnon; Il se soucie d'elle en retour. Il y a une danse interprétative dans laquelle Gloria s'engage avec Robbie, et les opérations et la constitution internes de Robbie ne sont pas pertinentes pour elle. Lorsque l'occasion d'apprendre de tels détails survient, des preuves supplémentaires de la fonctionnalité de Robbie (après avoir sauvé Gloria d'un accident) distraient et empêche Gloria d'apprendre.

Philosophiquement parlant, «Robbie» nous enseigne qu'en attribuant un esprit à un autre être, nous ne faisons pas de déclaration sur le gentil de la chose, mais plutôt de révéler à quel point nous comprenons profondément comment il travaux. Par exemple, Gloria pense que Robbie est intelligente, mais ses parents pensent qu'ils peuvent réduire son comportement apparemment intelligent aux opérations de machine de niveau inférieur. Pour voir cela plus largement, notez le cas Converse où nous nous attribuons des qualités mentales que nous ne voulons pas attribuer à des programmes ou des robots. Ces qualités, comme l'intelligence, l'intuition, la perspicacité, la créativité et la compréhension, ont cela en commun: nous ne savons pas ce qu'ils sont. Malgré les affirmations extravagantes souvent enroulées par les praticiens de neurosciences et de psychologie empirique, et par divers scientifiques cognitifs, ces compliments autonomes restent indéfinissables. Toute tentative de caractérisation de l'une utilise l'autre («la véritable intelligence nécessite une perspicacité et une créativité» ou «la vraie compréhension nécessite des informations et de l'intuition») et s'engage, non, il exige de vastes tenants à la main.

Mais même si nous ne savons pas trop quelles sont ces qualités ou dans quoi elles sont en dessous, quelle que soit la qualité mentale, le «profane éduqué» proverbial est sûr que les humains ont et que les machines comme les robots ne le font pas – même si les machines agissent comme nous, produisant ces mêmes produits que les humains font, et reproduisant parfois des exploits humains qui ont besoin de l'intelligence, de l'ingéniosité ou de quoi d'autre, et de reproduire occasionnellement des exploits humains qui ont besoin de l'intelligence, d'ingéniosité ou de ce qui autrement. Pourquoi? Parce que, comme les parents de Gloria, nous savoir (Merci d'être informé par les créateurs du système dans les médias populaires) que «tout ce qu'ils font est [table lookup / prompt completion / exhaustive search of solution spaces]. ” Pendant ce temps, les attributs mentaux que nous nous appliquons à nous-mêmes sont si vaguement définis, et notre ignorance de nos opérations mentales si profonde (actuellement), que nous ne pouvons pas dire «l'intuition humaine (perspicacité ou créativité) est juste [fill in the blanks with banal physical activity]. “

Les débats actuels sur l'intelligence artificielle procèdent donc à la façon dont ils le font parce que chaque fois que nous sommes confrontés à une «intelligence artificielle», dont les opérations que nous (pensons que nous) comprenons, il est facile de répondre rapidement: «Tout ce agent artificiel fait est x.» Cette description réductrice démystifie ses opérations, et nous sommes donc sûrs qu'il n'est pas intelligent (ou créatif ou perspicace). En d'autres termes, ces êtres ou des choses dont les opérations internes et de niveau inférieur que nous comprenons et pouvons indiquer et illuminer ne fonctionnent que selon des modèles connus d'opérations physiques banales. Ces entités apparemment intelligentes dont nous faisons les opérations internes pas Comprendre sont capables de perspicacité, de compréhension et de créativité. (La ressemblance avec les humains aide aussi; nous refusons plus facilement l'intelligence aux animaux qui ne nous ressemblent pas.)

Mais que se passe-t-il si, comme Gloria, nous n'avions pas une telle connaissance de ce qu'un système ou un être ou un objet ou un extraterrestre fait lorsqu'il produit ses réponses apparemment «intelligentes»? Quelles qualités y attribuerions-nous pour donner un sens à ce qu'elle fait? Ce niveau d'incompréhensibilité approche peut-être rapidement. Assurez-vous les réactions perplexes de certains développeurs de Chatgpt à son comportement soi-disant «émergent», où personne ne semble savoir à quel point Chatgpt a produit les réponses qu'elle a apportées. Nous pourrions, bien sûr, insister sur le fait que «tout ce qu'il fait est (une sorte de) achèvement rapide». Mais vraiment, nous pourrions aussi dire les humains: «Ce ne sont que des neurones qui tirent.» Mais ni Chatgpt ni les humains n'auraient de sens pour nous de cette façon.

Les preuves suggèrent que si nous devions rencontrer une entité suffisamment compliquée et intéressante qui semble intelligente, mais nous ne savons pas comment cela fonctionne et ne pouvons pas prononcer notre ligne de dédommage habituelle, «Tous x fait est y», Nous commencerions à utiliser le langage de la« psychologie folklorique »pour régir nos interactions avec elle, pour comprendre pourquoi il fait ce qu'il fait, et surtout, pour essayer de prédire son comportement. Par analogie historique, lorsque nous ne savions pas ce qui émounait l'océan et le soleil, nous leur avons accordé des états mentaux. («La mer en colère croit que les falaises sont ses ennemis mortels». Ou «Le soleil veut se coucher rapidement».) Une fois que nous savions comment ils fonctionnaient, grâce à notre connaissance croissante des sciences physiques, nous les avons rétrogradés à des objets purement physiques. (Une décision avec des conséquences environnementales désastreuses!) De même, une fois que nous perdons notre compréhension des internes des systèmes d'intelligence artificielle, ou que nous grandissons avec eux, ne sachant pas comment ils fonctionnent, nous pourrions également leur donner des esprits. C'est une question de décision pragmatique, pas de découverte. Car cela pourrait être la meilleure façon de comprendre pourquoi et ce qu'ils font.