Inovação

Alucinação de chatbot IA pesa no bolso e mancha imagem da Air Canadá

Companhia aérea tentou não se responsabilizar por informações fornecidas pelo chatbot na área de atendimento ao cliente, mas Justiça considerou o argumento 'inacreditável" e decretou: as empresas são responsáveis, sim, pelo uso da IA com seus consumidores e devem assumir os erros.

O atendimento por chatbots de inteligência artificial fazem parte da estratégia de relacionamento com o cliente e são responsabilidade das empresas, que contratam o uso da tecnologia. Assim definiu o juiz Christopher Rivers, de um juizado de pequenas causas na Colúmbia Britânica, no Canadá, em uma ação impetrada contra a Air Canada. A companhia aérea terá de reembolsar um passageiro que foi vítima de uma trapalhada do chatbot da empresa, que opera como “agente de atendimento ao consumidor”.

O chatbot prestou informações erradas sobre tarifas de luto, que oferecem descontos substanciais a pessoas que precisam viajar repentinamente por causa da morte de um familiar imediato. O “agente” da Air Canada informou que o passageiro podia pagar a passagem à vista, no valor de US$ 1.640, e solicitar posteriormente um reembolso de US$ 880, desde que isso fosse feito dentro do prazo de 90 dias.

O passageiro foi ao enterro da avó, em Toronto, retornou e telefonou para a companhia aérea para reclamar o reembolso. Um agente de atendimento ao consumidor, humano, explicou que isso não era possível porque contraria a política da empresa, que proíbe reembolso depois da viagem. O cliente, então, processou a companhia aérea, que se defendeu dizendo que o passageiro deveria ter checado a página sobre tarifa de luto no site da Air Canada, que traz as informações corretas, e que a “Air Canada não pode ser responsabilizada por informações prestadas pelo chatbot”.

“Com efeito, a demandada sugere que o chatbot é uma entidade jurídica separada, que é responsável por suas próprias ações. Esse é um argumento inacreditável”, afirmou o juiz Christopher Rivers na sentança. O magistrado foi além: “A Air Canada tem o dever de ser precisa nas informações que presta aos clientes. A norma aplicável exige que uma empresa tome cuidado razoável para garantir que suas declarações não sejam enganosas. companhia aérea alega que não pode ser responsabilizada por informações prestadas por seus agentes, empregados ou representantes, não só pelo chatbot. Ela não explica por que acredita nisso” adicionou

Na sentença, o juiz deixou claro que o chatbot faz parte do site da Air Canada. E, portanto, “é óbvio que a empresa é responsável pelas informações contidas em qualquer parte de seu website”. A empresa também não explicou por que os consumidores devem conferir as informações prestadas em uma parte de seu site com as de outra parte do mesmo site. “Não há razão para um passageiro saber que uma parte do website é correta e outra não é.”


O valor da indenização ao consumidor não é importante, mas a decisão é. Ela estabeleceu um precedente sobre a responsabilização das companhias aéreas — e de todas as empresas, para esse efeito — que passam a usar sistemas alimentados por inteligência artificial em seus relacionamentos com consumidores. “As empresas precisam saber que seus sistemas alimentados por inteligência artificial estão sendo regulamentados por leis apropriadas e que devem testar o alto impacto que podem exercer, antes de colocá-los à disposição do público”, escreveu o juiz.

O caso da Air Canada mostra que as empresas podem pagar um preço alto pelas “alucinações” de seus chatbots. O Consumer Financial Protection Bureau, o órgão de defesa do consumidor dos Estados Unidos, adverte: “As empresas que estão empregando tecnologia de chatbot correm o risco de violar suas obrigações legais. Tal como os processos que está substituindo, os chatbots deve cumprir todas as leis federais aplicáveis ao relacionamento com o consumidor e as entidades que os utilizam devem ser responsabilizadas por violar essas leis”, alertou o órgão.

* Com informações do portal Consultor Jurídico adicionais de Vancouver Sun, Forbes e Mashable.

Botão Voltar ao topo