Política Ficticia de Reembolso de Air Canada Implementada por Chatbot de IA

En un giro sorprendente de los acontecimientos, el Tribunal de Resolución Civil de Columbia Británica (CRT por sus siglas en inglés) ha ordenado a Air Canada que cumpla con una política de reembolso ficticia presentada por su propio chatbot de IA. Esta decisión, considerada por Christopher Rivers del CRT como una revelación extraordinaria, coloca la responsabilidad directamente en la aerolínea por las acciones de su sistema automatizado.

El incidente comenzó en noviembre de 2022 cuando Jake Moffatt, un residente canadiense en duelo, buscó información sobre tarifas de duelo a través del chatbot en línea de Air Canada. En lugar de guiarlo hacia los detalles correctos, el chatbot le sugirió reservar un boleto regular y posteriormente solicitar un reembolso parcial en un plazo de 90 días bajo la supuesta política de duelo de la aerolínea.

Siguiendo las instrucciones proporcionadas por el chatbot, Moffatt compró un boleto de precio completo de Vancouver a Toronto. Sin embargo, cuando intentó solicitar el reembolso, los empleados de Air Canada le informaron que no se permitían solicitudes retroactivas.

Moffatt presentó capturas de pantalla de su conversación con el chatbot al CRT, revelando su orientación engañosa: «Air Canada ofrece tarifas de duelo reducidas si necesita viajar debido a una muerte inminente o una muerte en su familia inmediata».

Reconociendo las inexactitudes en la respuesta del chatbot, Air Canada argumentó que Moffatt no había seguido el procedimiento adecuado para solicitar tarifas de duelo y, por lo tanto, no era elegible para reclamos retroactivos. La aerolínea mantuvo además que no podía ser considerada responsable por la información proporcionada por el chatbot u otros representantes.

Sin embargo, el fallo de Rivers favoreció a Moffatt, ya que Air Canada no proporcionó una explicación satisfactoria de su posición. Rivers enfatizó que Air Canada es responsable de toda la información presentada en su sitio web, independientemente de si proviene de una página estática o de un chatbot de IA interactivo.

Esta sentencia innovadora destaca la creciente responsabilidad de las empresas por las acciones de sus sistemas de IA, generando preocupaciones sobre la fiabilidad de los chatbots y las posibles consecuencias de sus fallos.

Como resultado del fallo, Air Canada se ha comprometido a mejorar la formación y precisión de su chatbot, además de aclarar su política de tarifas de duelo tanto en su sitio web como en la interfaz del chatbot. El CRT ha emitido una directiva para que la aerolínea reembolse a Moffatt en un plazo de 14 días, lo que representa una victoria significativa para los derechos de los consumidores ante los servicios impulsados por la IA.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact