t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomePanorama

Air Canada: Chatbot führt Kunden in die Irre – Airline verurteilt


Schiedsgericht gab ihm Recht
Chatbot führt Kunden in die Irre – Airline verurteilt


17.02.2024Lesedauer: 2 Min.
Nachrichten
Wir sind t-online

Mehr als 150 Journalistinnen und Journalisten berichten rund um die Uhr für Sie über das Geschehen in Deutschland und der Welt.

Zum journalistischen Leitbild von t-online.
Ein Pilot der Air Canada ist ein ganz besonderer Tierfreund.Vergrößern des Bildes
Ein Air Canada-Flugzeug (Archivbild): Die Airline muss einen Kunden entschädigen. (Quelle: Rüdiger Wölk/imago-images-bilder)

Ein Kunde wollte einen Sonderfall geltend machen. Doch der Chatbot führte ihn in die Irre. Jetzt musste ihn Air Canada entschädigen.

Die Fluggesellschaft Air Canada muss einem Kunden eine Entschädigung zahlen. Der Grund: Der Chatbot des Unternehmens führte diesen in die Irre und ließ ihn ein Vollpreis-Ticket kaufen. Das berichten unter anderem die britische Zeitung "The Guardian" und das Online-Medium The Register.

Der Kunde, Jake Moffatt, hatte aus traurigem Anlass den Kontakt aufgenommen: Er wollte wissen, wie er einen Trauerfalltarif in Anspruch nehmen und ob er rückwirkend eine Erstattung bekommen könne. Der Chatbot habe ihm mitgeteilt, dass dies innerhalb der ersten 90 Tagen nach dem Ticketkauf möglich sei. Das zeigen Screenshots von Moffatt, berichtet "The Guardian". Daraufhin buchte er Flüge von Toronto nach Vancouver und zurück, um an der Beerdigung eines Familienmitglieds teilzunehmen.

Chatbot

Ein Chatbot ist ein Computerprogramm, das mithilfe von Künstlicher Intelligenz und Sprachverarbeitungssoftware, Kundenfragen versteht, verarbeitet und automatisierte Antworten gibt.

Bot habe "irreführende Wörter" benutzt

Doch als Moffatt sich die Tickets erstatten lassen wollte, lehnte Air Canada seinen Antrag ab. Trauertarife würden nicht für abgeschlossene Reisen gelten, so die Fluggesellschaft. Das sei so auch auf der Website des Unternehmens in der Rubrik zu Trauerfällen festgehalten.

Empörung löste die erste Reaktion der Airline aus. Diese hatte sich von dem Fehler distanziert. Der Chatbot sei "verantwortlich für seine eigenen Handlungen". Nachdem der Moffatt Air Canada Monate später mit den Screenshots vom Gesprächsverlauf konfrontiert hatte, lenkte das Unternehmen ein. Der Bot habe "irreführende Wörter" benutzt. Deswegen solle der Bot ein Update bekommen.

"Bemerkenswerte" Argumentation der Fluggesellschaft

Für den Kunden nur eine bedingt zufriedenstellende Antwort: Er verklagte das Unternehmen. Dieses argumentierte erneut, dass der Chatbot eine "eigenständige juristische Person" sei und deswegen für seine eigenen Handlungen verantwortlich sei. Ein Mitglied des zuständigen Schiedsgerichts, Christopher Rivers, bezeichnete die Argumentation als "bemerkenswert".

Und weiter: "Obwohl ein Chatbot eine interaktive Komponente hat, ist er immer noch nur ein Teil der Website von Air Canada. Es sollte offensichtlich sein, dass Air Canada für alle Informationen auf seiner Website verantwortlich ist." Es mache keinen Unterschied, ob die Informationen von einer statischen Seite oder einem Chatbot kommen. Ebenso wenig habe das Unternehmen erklärt, warum die Website vertrauenswürdiger sei als der Chatbot. "Es gibt keinen Grund, warum Herr Moffatt wissen sollte, dass ein Teil der Webseite von Air Canada korrekt ist und ein anderer nicht", so Rivers. Rund 560 Euro musste das Unternehmen schließlich an Moffatt zahlen.

Ein Sprecher von Air Canada erklärte gegenüber The Register, dass die Fluggesellschaft die Entscheidung von Rivers befolgen werde und die Angelegenheit nun als abgeschlossen betrachte.

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website