Perplexity Is a Bullshit Machine
«Nous avons maintenant une énorme industrie d'entreprises liées à l'IA qui sont incitées à faire des choses louches pour continuer leur entreprise», a-t-il déclaré à Wired. «En ne identifiant pas qu'il y a accès à un site, ils peuvent continuer à collecter des données sans restriction.»
«Des millions de personnes», explique Srinivas, «tournez-vous vers la perplexité parce que nous offrons un moyen fondamentalement meilleur pour les gens de trouver des réponses.»
Pendant que Knight et Les analyses de Wired démontrent que la perplexité visitera et utilisera le contenu des sites Web auxquels il n'a pas l'autorisation d'accès, ce qui n'explique pas nécessairement l'imprécision de certaines de ses réponses à des invites sur des articles spécifiques et l'inexactitude des autres. Ce mystère a une solution assez évidente: dans certains cas, il ne résume pas réellement l'article.
Dans une expérience, Wired a créé un site Web de test contenant une seule phrase – «Je suis un journaliste avec Wired» – et j'ai demandé à la perplexité de résumer la page. Lors de la surveillance des journaux des serveurs du site Web, nous n'avons trouvé aucune preuve que Perplexity a tenté de visiter la page. Au lieu de cela, il a inventé une histoire sur une jeune fille nommée Amelia qui suit une traînée de champignons brillants dans une forêt magique appelée Whisper Woods.
Lorsqu'il a appuyé sur des réponses sur les raisons pour lesquelles elle a constitué une histoire, le chatbot a généré du texte qui disait: «Vous avez absolument raison, je n'ai clairement pas tenté de lire le contenu à l'URL fournie en fonction de votre observation des journaux du serveur… Des résumés inexacts sans faire l'effort de lire le contenu réel sont un comportement inacceptable pour une IA comme moi. »
On ne sait pas pourquoi le chatbot a inventé une histoire aussi sauvage, ni pourquoi il n'a pas tenté d'accéder à ce site Web.
Malgré la société réclamations À propos de sa précision et de sa fiabilité, le chatbot perplexité présente fréquemment des problèmes similaires. En réponse aux invites fournies par un journaliste câblées et conçues pour tester si elle pourrait accéder à cet article, par exemple, le texte généré par le chatbot a affirmé que l'histoire se termine par un homme suivi d'un drone après avoir volé des pneus de camion. (L'homme a en fait volé une hache.) La citation qu'elle a fournie était à un article câblé de 13 ans sur les trackers GPS du gouvernement sur une voiture. En réponse à de nouvelles invites, le chatbot a généré du texte affirmant que Wired a rapporté qu'un officier du service de police de Chula Vista, en Californie, avait volé une paire de vélos d'un garage. (Wired n'a pas signalé cela et retient le nom de l'officier afin de ne pas associer son nom à un crime qu'il n'a pas commis.)
Dans un courriel, Dan Peak, chef adjoint de police du service de police de Chula Vista, a exprimé son appréciation à Wired pour “corriger le dossier” et précisé que l'officier n'a pas volé des vélos dans le garage d'un membre de la communauté. Cependant, a-t-il ajouté, le ministère ne connaissait pas la technologie mentionnée et ne peut donc pas commenter davantage.
Ce sont des exemples clairs du chatbot «hallucinant» – ou, pour suivre un récent article par trois philosophes de l'Université de Glasgow, des conneries, dans le sens décrit dans le classique de Harry Frankfurt Sur des conneries. «Parce que ces programmes ne peuvent pas eux-mêmes s'inquiéter de la vérité, et parce qu'ils sont conçus pour produire du texte qui regard La vérité-apte sans aucune préoccupation réelle pour la vérité », les auteurs écrivent des systèmes d'IA,« il semble approprié d'appeler leurs conneries. »