Chatbots, fallos y responsabilidades
11 marzo, 2024 (09:49:59)Apoyándose en reglas automatizadas, procesamiento de lenguaje natural, aprendizaje automático e inteligencia artificial, los chatbots procesan datos y proporcionan respuestas a diversas solicitudes. Ayudan a reducir los tiempos de espera y ofrecen respuestas rápidas las 24 horas del día. De allí que su uso se haya generalizado en varias páginas Web (agencia, compañía aérea, etc.) en el momento, por ejemplo, de la reserva, para sustituir y/o apoyar al personal de atención al cliente.
Al actuar de forma independiente o (semi) autónoma, los chatbots tienen la capacidad de crear efectos jurídicos, generando situaciones (respuestas, asesoramiento, etc.) que pueden derivar en responsabilidades.
La aerolínea Air Canada acaba de ser condenada a pagar por un error de tarificación cometido por su chatbot de atención al cliente. El Sr Jake Moffatt denunció ante el CRT (Civil Resolution Tribunal) a esa compañía aérea por considerar que le había perjudicado su chatbot, al inventarse un descuento. Aunque Air Canada alegó que la herramienta constituía "una entidad jurídica independiente", el tribunal canadiense falló en su contra.
El CRT es el primer tribunal en línea en Canadá, formando parte del sistema de justicia pública de Columbia Británica. Ofrece una manera accesible y asequible de resolver disputas sin necesidad de un abogado o comparecer ante un tribunal. Si un reclamante no puede resolver su disputa, un miembro del tribunal puede tomar una decisión al respecto. Los miembros son expertos legales independientes y sus decisiones pueden ser ejecutadas como decisiones judiciales.
De forma sorprendente, en su defensa Air Canada argumentó que no podía ser considerada responsable por la información proporcionada por uno de sus “agentes, empleados o representantes”, incluido un chatbot. No explicó adecuadamente por qué creía que ese era el caso. En efecto, Air Canada sugirió que el chatbot es una entidad legal separada que es responsable de sus propias acciones. Según el miembro del tribunal, aunque un chatbot tiene un componente interactivo, sigue siendo solo una parte del sitio web de Air Canada: debía ser evidente para Air Canada que es responsable de toda la información en su sitio web. No importa si la información proviene de una página estática o de un chatbot.
Consecuentemente, el Sr. Moffatt ha sido colocado por el miembro del tribunal en la posición en la que habrían estado si no hubiera hecho el chatbot la representación errónea. La medida de los daños generalmente se considera la diferencia entre el precio pagado y el valor de mercado real en el momento de la venta. Así se le otorgaron daños por 650,88 CAD$, además de 36,14 CAD$ en intereses previos al juicio y 125 CAD$ en tasas del CRT.
España aún no tiene una normativa específica para chatbots, la Ley de IA europea proporciona un marco general para su regulación. La Ley de IA introduce obligaciones específicas de transparencia para garantizar que los seres humanos estén informados cuando sea necesario, fomentando la confianza. Por ejemplo, cuando se utilizan sistemas de IA como chatbots, los seres humanos deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada de continuar o dar un paso atrás. Los proveedores también tendrán que asegurarse de que el contenido generado por IA sea identificable.
Marc Ripoll
Abogado de MONLEX
mripoll@monlexabogados.es
Para comentar, así como para ver ciertos contenidos de Hosteltur, inicia sesión o crea tu cuenta
Inicia sesiónEsta opinión no tiene comentarios.