AirCanada y su chatbot: una responsabilidad compartida

Vuelve y juega, la IA nos engaña de nuevo. En esta ocasión hablamos específicamente de la historia de Jake Moffat, quien en noviembre de 2022 recibió la desafortunada noticia de que su abuela había fallecido.

¿Cómo entra la IA en esta decisión? Bueno pues… He aquí la noticia: el chatbot de AirCanada en su página web ofreció un descuento por luto con condiciones que no aplicaban.

Un vuelo de $564 pero pagando primero $1209

Tal como leyó, resulta que Moffat hizo una consulta por descuentos debido a luto con la aerolínea AirCanada. El chatbot basado en IA le explicó que debía comprar sus boletos de avión y dentro de los próximos 90 días, llenar un formulario con la solicitud de reembolso.

Así las cosas, Moffat pagó sus vuelos de ida y vuelta a Ontario (donde sería el funeral de su abuela) por $1209 y al regresar, solicitó el reembolso por $483 más intereses con un resultado inesperado.

Las verdaderas condiciones del descuento

La política de AirCanada es que no otorga descuentos después de un vuelo comprado, deben solicitarse antes de la compra. Es verdad que esta aerolínea cuenta con un descuento por luto, pero el formulario de reembolso y todo lo que envió Moffat tras consejo del chatbot, terminó siendo inservible.

Así las cosas, Jake Moffat intercambió varios correos con empleados de AirCanada preguntando por el descuento y buscando una solución que nunca le dieron. Solo le decían que la IA del chatbot lo había engañado. Pero Moffat no se quedó de brazos cruzados.

Una resolución justa, pero que se pudo evitar

Moffat llevó el caso a los tribunales canadienses, allí AirCanada se defendió diciendo que el chatbot era una “entidad jurídica” externa y que no deberían hacerse responsables por la información que da. Además intentó cambiar la mirada del caso al decir que Moffat pudo haber encontrado más de la política de descuentos por luto si hubiese buscado mejor. Un poco indignante, ¿no?

Si bien tiene algo de sentido, los tribunales no les dieron la razón. Pues Jake Moffat estaba buscando una solución a su consulta y confió en la IA que está en la página web de la aerolínea; asimismo, Moffat no está en la obligación de saber qué información es precisa o no.

Así, finalmente, la aerolínea entró en la obligación de pagar un total de $602,80 dólares entre el adicional pagado por Moffat, honorarios en el tribunal e intereses previos al fallo en la corte.

¿Hay un verdadero responsable?

Podríamos decir que hay 3 grandes involucrados en este caso que comparten la culpa por igual:

  • Jake Moffat buscó una tarifa accesible por la urgencia de acompañar a sus familiares en el funeral de su abuela. Del afán, decidió quedarse con la primera opción y pecó por inocente. Investigar más a fondo hubiera evitado varias cosas.

  • La IA del chatbot, ¿cómo es posible que la información que dan no esté actualizada o sea errónea? Si bien como consumidores es un buen recurso de información, la idea sería usarlo como una guía, más no como una solución.

  • Por último, la aerolínea AirCanada intentando no hacerse responsable por su negligencia con el uso de herramientas de IA y mal manejo de la situación, pues Moffat estuvo algo más de tres meses buscando una respuesta que no fue la adecuada.

Con esto resuelto por los tribunales, no nos queda más que preguntarle: ¿Qué habría hecho si usted fuera el involucrado? Lo leemos en los comentarios.