Air Canada Has to Honor a Refund Policy Its Chatbot Made Up
Après des mois de résistance, Air Canada était forcé Pour rembourser partiel un passager en deuil qui a été induit en erreur par un chatbot aérien expliquant de manière inexacte la politique de voyage de deuil de la compagnie aérienne.
Le jour où la grand-mère de Jake Moffatt est décédée, Moffat a immédiatement visité le site Web d'Air Canada pour réserver un vol de Vancouver à Toronto. Impossible de savoir comment les taux de deuil d'Air Canada fonctionnaient, Moffatt a demandé à le chatbot d'Air Canada d'expliquer.
Le chatbot a fourni des informations inexactes, encourageant Moffatt à réserver immédiatement un vol, puis demande un remboursement dans les 90 jours. En réalité, la politique d'Air Canada a explicitement déclaré que la compagnie aérienne ne fournira pas de remboursement pour les voyages de deuil après la réservation du vol. Moffatt a consciencieusement tenté de suivre les conseils du chatbot et de demander un remboursement, mais a été choqué que la demande ait été rejetée.
Moffatt a essayé pendant des mois pour convaincre Air Canada qu'un remboursement était dû, partageant une capture d'écran du chatbot qui a clairement affirmé:
Air Canada a fait valoir que parce que la réponse du chatbot ailleurs liée à une page à la politique de voyage de deuil réelle, Moffatt aurait dû savoir que les taux de deuil ne pouvaient pas être demandés rétroactivement. Au lieu d'un remboursement, le meilleur Air Canada ferait de promettre de mettre à jour le chatbot et d'offrir à Moffatt un coupon de 200 $ à utiliser sur un futur vol.
Méproile de cette résolution, Moffatt a refusé le coupon et a déposé une plainte pour une petite réclamation au Tribunal de la résolution civile du Canada.
Selon Air Canada, Moffatt n'aurait jamais dû faire confiance au chatbot et la compagnie aérienne ne devrait pas être responsable des informations trompeuses du chatbot parce qu'Air Canada a essentiellement fait valoir: “Le chatbot est une entité juridique distincte responsable de ses propres actions” ordonnance du tribunal dit.
Experts dit au Soleil de Vancouver Ce cas de Moffatt semblait être la première fois qu'une entreprise canadienne tentait de faire valoir qu'elle n'était pas responsable des informations fournies par son chatbot.
Le membre du Tribunal, Christopher Rivers, qui a décidé l'affaire en faveur de Moffatt, a qualifié la défense d'Air Canada «remarquable».
“Air Canada fait valoir qu'il ne peut être tenu responsable des informations fournies par l'un de ses agents, serviteurs ou représentants, y compris un chatbot”, a écrit Rivers. “Cela n'explique pas pourquoi il pense que c'est le cas” ou “pourquoi la page Web intitulée” Bereavement Travel “était intrinsèquement plus fiable que son chatbot.”
De plus, Rivers a constaté que Moffatt n'avait “aucune raison” de croire qu'une partie du site Web d'Air Canada serait exacte et une autre ne le ferait pas.
Air Canada “n'explique pas pourquoi les clients devraient avoir à vérifier les informations trouvées dans une partie de son site Web sur une autre partie de son site Web”, a écrit Rivers.
En fin de compte, Rivers a statué que Moffatt avait droit à un remboursement partiel de 650,88 $ en dollars canadiens sur le tarif d'origine (environ 482 USD), ce qui était de 1 640,36 $ CAD (environ 1 216 USD), ainsi que des dommages supplémentaires pour couvrir l'intérêt sur le vol aérien et les frais du tribunal de Moffatt.
Air Canada a déclaré à ARS qu'il se conformera à la décision et examine l'affaire fermée.
Le chatbot d'Air Canada semble désactivé
Vendredi, ARS a visité le site Web d'Air Canada, il ne semblait pas y avoir de support de chatbot disponible, ce qui suggère qu'Air Canada a désactivé le chatbot.
Air Canada n'a pas répondu à la demande d'ARS pour confirmer si le chatbot fait toujours partie des offres d'assistance en ligne de la compagnie aérienne.