You Don’t Have to Be a Jerk to Resist the Bots

Il y avait une fois Un assistant virtuel nommé Mme Dewey, un bibliothécaire Coly joué par Janina Gavankar qui vous a aidé avec vos demandes de renseignements sur la première tentative de Microsoft de moteur de recherche. Mme Dewey a été lancée en 2006, avec plus de 600 lignes de dialogue enregistré. Elle était en avance sur son temps de plusieurs manières, mais un exemple particulièrement négligé a été capturé par le savant de l’information Miriam Sweeney dans son 2013 thèse de doctoratoù elle a détaillé les implications sexospécifiques et racialisées des réponses de Dewey. Cela comprenait des lignes comme: “Hé, si vous pouvez entrer à l’intérieur de votre ordinateur, vous pouvez faire ce que vous voulez.” Ou comment la recherche de «Blow Jobs» a provoqué un clip de son mangeant une banane, ou de saisir des termes comme «Ghetto» lui a fait jouer un rap avec des paroles comprenant des joyaux tels que «Non, Goldtooth, le ghetto mutha-fucker Beep Steps vers ce morceau de cette pièce de ce morceau de pièce [ass] BIP.” Sweeney analyse l’évidence: que Dewey a été conçu pour répondre à un utilisateur masculin blanc et hétéro. Les blogs à l’époque ont salué la flirt de Dewey, après tout.

Mme Dewey a été désactivée par Microsoft en 2009, mais les critiques ultérieurs – inclus – identifieraient un modèle similaire de préjugés dans la façon dont certains utilisateurs se sont engagés avec des assistants virtuels comme Siri ou Cortana. Lorsque Microsoft Engineers a révélé qu’ils ont programmé Cortana pour repousser fermement les requêtes ou les avancées sexuelles, il y avait un indignation bouillonnante sur Reddit. Un article hautement voté disait: “Ces putains de personnes sont-ils sérieux ?!” Son but entier est de faire ce que les gens lui disent! Hé, salope, ajoute ceci à mon calendrier… le jour où Cortana devient une «femme indépendante» est le jour où le logiciel devient inutile. » La critique d’un tel comportement a prospéré, notamment à partir de Votre humble correspondant.

Maintenant, Au milieu du recul Contre Chatgpt et ses semblables, le pendule a ramené fort, et nous sommes avertis contre sympathiser avec ces choses. C’est un point que j’ai fait dans le sillage du fiasco Lamda AI l’année dernière: un bot n’a pas besoin d’être sapient pour nous pour l’anthropomorphiser, et ce fait sera exploité par les profiteurs. Je maintiens cet avertissement. Mais Certains sont allés plus loin pour suggérer Ces critiques antérieures des personnes qui ont abusé de leurs assistants virtuelles sont rétrospectivement naïfs. Peut-être que les hommes qui ont appelé à plusieurs reprises Cortana une «chienne» étaient sur quelque chose!

Cela peut vous choquer d’apprendre que ce n’est pas le cas. Non seulement les critiques passées des abus d’IA étaient correctes, mais ils prévoyaient le paysage numérique le plus dangereux que nous sommes confrontés maintenant. La vraie raison pour laquelle la critique est passée de «les gens sont trop méchants pour les robots» à «les gens sont trop gentils avec eux» est que l’économie politique de l’IA a soudainement et radicalement changé, et avec elle, les arguments de vente des entreprises technologiques. Là où une fois que des robots nous ont été vendus comme le serviteur parfait, ils seront maintenant vendus à nous en tant que meilleur ami. Mais dans chaque cas, la réponse pathologique à chaque génération de bot nous a implicitement obligé de les humaniser. Les propriétaires du bot ont toujours armé nos pires et meilleures impulsions.

Une vérité contre-intuitive sur la violence est que, tout en déshumanisant, il oblige en fait l’agresseur Rendez-vous comme humain. C’est une sombre réalité, mais tout le monde, des criminels de guerre aux fluage au pub, se fait dans une certaine mesure à l’idée que leurs victimes ressentent de la douleur. La déshumanisation n’est pas l’échec de voir quelqu’un comme humain, mais le désir de voir quelqu’un comme moins qu’humain et d’agir en conséquence. Ainsi, à un certain niveau, c’est précisément la mesure dans laquelle les gens ont confondu leurs assistants virtuels avec de vrais êtres humains qui les ont encouragés à les abuser. Ce ne serait pas amusant autrement. Cela nous amène au moment présent.

La génération précédente de l’IA nous a été vendu en tant que serviteurs parfaits – un PA sophistiqué ou peut-être l’ordinateur d’entreprise de Majel Barrett. Rending, omniscient, toujours prêt à servir. Les nouveaux moteurs de recherche de chatbot comportent également certaines des mêmes associations, mais au fur et à mesure qu’ils évoluent, ils nous seront également vendus en tant que nouveaux confidents, même notre nouveau thérapeutes.