For Some Autistic People, ChatGPT Is a Lifeline

L'autisme affecte les gens de différentes manières et les individus peuvent avoir des besoins différents. Chatgpt peut ne pas fonctionner pour certains ou même la plupart, mais une caractéristique commune de l'autisme est que les interactions sociales peuvent être difficiles ou déroutantes.

L'utilisation d'un chatbot pour aider à la communication peut sembler non conventionnelle, mais elle est conforme à certaines idées établies utilisées dans le travail social pour aider les gens à devenir plus indépendants. «Nous parlons d'autonomiser les gens et d'aider les gens à être entièrement autonomes et à vivre le succès selon leurs propres termes», explique Lauri Goldkind, professeur à la Graduate School of Social Service de l'Université Fordham qui se concentre sur le mariage du travail social et de la technologie. Un outil accessible comme un bot d'IA génératif peut souvent aider à combler l'écart laissé par un accès intermittent aux services de santé mentale comme la thérapie, dit Goldkind.

Mais le véritable impact de Chatgpt pour des raisons thérapeutiques est largement inconnu. Il est trop nouveau – transféré à quatre thérapeutes cliniques et conseillers pour contribution. Chacun d'eux a refusé de commenter, disant qu'ils n'avaient pas encore exploré l'utilisation de Chatgpt comme un outil thérapeutique ou le rencontrer dans leurs séances.

La flexibilité du chatbot vient également avec des problèmes non traités. Il peut produire des réponses biaisées, imprévisibles et souvent fabriquées, et est construite en partie sur les informations personnelles grattées sans autorisation, ce qui soulève des problèmes de confidentialité.

Goldkind conseille que les gens qui se tournent vers Chatgpt devraient connaître ses conditions d'utilisation, comprendre les bases de son fonctionnement (et comment les informations partagées dans un chat peuvent ne pas rester privées) et garder à l'esprit ses limites, telles que sa tendance à fabriquer des informations. Young a dit qu'ils avaient pensé à activer les protections de la confidentialité des données pour Chatgpt, mais que leur point de vue en tant que parent célibataire et célibataire autiste pourrait être des données bénéfiques pour le chatbot dans son ensemble.

Quant à tant d'autres personnes, les personnes autistes peuvent trouver des connaissances et l'autonomisation dans la conversation avec Chatgpt. Pour certains, les avantages l'emportent sur les inconvénients.

Maxfield Sparrow, qui est autiste et facilite des groupes de soutien pour les personnes autistes et transgenres, a trouvé Chatgpt utile pour développer de nouveaux documents. De nombreux personnes autistes ont du mal avec les briseurs de glace conventionnels dans les séances de groupe, car les jeux sociaux sont conçus en grande partie pour les personnes neurotypiques, dit Sparrow. Ils ont donc incité le chatbot à proposer des exemples qui fonctionnent mieux pour les personnes autistes. Après quelques allers-retours, le chatbot a craché: “Si vous mélodiez, quel genre de temps seriez-vous?”

Sparrow dit que c'est l'ouvreur parfait pour le groupe – curieux et lié au monde naturel, avec lequel Sparrow dit qu'un groupe neurodivergent peut se connecter. Le chatbot est également devenu une source de confort pour le moment où Sparrow est malade, et pour d'autres conseils, comme comment organiser leur routine matinale pour être plus productif.

La thérapie Chatbot est un concept qui remonte à des décennies. Le premier chatbot, Eliza, était un bot de thérapie. Il est venu dans les années 1960 du MIT Artificial Intelligence Laboratory et a été modélisé sur la thérapie rogerienne, dans laquelle un conseiller réduit ce qu'un client leur dit, souvent sous la forme d'une question. Le programme n'a pas utilisé l'IA tel que nous le connaissons aujourd'hui, mais grâce à la répétition et à la correspondance des modèles, ses réponses scénarisées ont donné l'impression aux utilisateurs qu'ils parlaient à quelque chose qui les comprenait. Bien qu'il ait été créé avec l'intention de prouver que les ordinateurs ne pouvaient pas remplacer les humains, Eliza a captivé certains de ses «patients», qui se sont engagés dans des conversations intenses et étendues avec le programme.