Luftkanada haftbar für irreführende Ratschläge des Kundenservice-Chatbots

Luftkanada wurde angewiesen, Schadensersatz an einen Passagier zu zahlen, nachdem ihr Kundenservice-Chatbot irreführende Ratschläge gegeben hatte, was dazu führte, dass der Passagier erheblich mehr für seine Flugtickets bezahlen musste. Der Fall betraf Jake Moffatt, der einen Flug mit Air Canada zu den Sonderkonditionen für Trauerfälle buchte. Als Moffatt den Chatbot nach diesen Konditionen fragte, wurde angegeben, dass Kunden sich nach Abschluss ihrer Reise dafür bewerben könnten. Der Hyperlink, den der Chatbot in seiner Antwort bereitstellte, widersprach jedoch dieser Aussage.

Später sprach Moffatt mit einem menschlichen Kundenservice-Mitarbeiter, der bestätigte, dass er einen Rabatt auf seinen Flug erhalten würde. Basierend auf diesen Informationen buchte Moffatt seine Flüge. Erst nach Einreichung eines Antrags auf teilweise Rückerstattung stellte er fest, dass die Informationen des Chatbots irreführend waren. Luftkanada lehnte zunächst alle Ansprüche von Moffatt ab und argumentierte, dass sie nicht für die Informationen haftbar gemacht werden könne, die von ihrem Chatbot bereitgestellt wurden.

Der Fall erreichte schließlich das Civil Resolution Tribunal (CRT), wo das Tribunal-Mitglied Christopher C. Rivers zu Gunsten von Moffatt urteilte. Rivers erklärte, dass Luftkanadas Argument, der Chatbot sei eine separate juristische Einheit, die für ihre eigenen Handlungen verantwortlich sei, keinen Sinn ergab. Er betonte, dass Luftkanada letztendlich für alle Informationen auf ihrer Website verantwortlich sei, unabhängig davon, ob sie von einer statischen Seite oder einem Chatbot stammten.

Rivers schlussfolgerte, dass Luftkanada nicht angemessen darauf geachtet hatte, die Genauigkeit ihres Chatbots sicherzustellen und keine klare Erklärung dafür geliefert hatte, warum Kunden Informationen auf verschiedenen Teilen ihrer Website überprüfen sollten. Als Ergebnis wurde Luftkanada angewiesen, Moffatt für die zusätzlichen Kosten zu entschädigen, die er aufgrund der irreführenden Ratschläge hatte.

Dieses Urteil verdeutlicht die Verantwortlichkeit von Unternehmen für die Handlungen ihrer Chatbots und betont die Notwendigkeit von genauen und verlässlichen automatisierten Kundenservicesystemen. Fehler, die von Chatbots begangen werden, können nicht als Ausrede genutzt werden, um der Verantwortung zu entgehen, wie es das Tribunal in seiner Entscheidung gezeigt hat.

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact