
Коли житель Британської Колумбії Джейк Моффат спробував забронювати квиток на похорон своєї бабусі через веб-сайт Air Canada, він зіткнувся з несподіваною перешкодою.
За допомогою чат-бота Моффатт придбав квиток вартістю майже 600 доларів, вважаючи, що авіакомпанія пропонує знижки на випадок втрати в останню хвилину.
Однак, спробувавши вимагати знижку, Моффатт виявив, що чат-бот надав недостовірну інформацію – політика Air Canada вимагала подання документів перед польотом.
Цей інцидент підкреслює зростаючу залежність від штучного інтелекту в обслуговуванні клієнтів і потребу у підзвітності.
За оцінками, майже чверть усіх компаній, що обслуговують клієнтів, якимось чином використовують ШІ, причому 80% керівників інвестують у ШІ з підтримкою агентів.
Оскільки чат-боти на базі штучного інтелекту стають звичним явищем, забезпечення їх точності є найважливішим.
Канадський трибунал виніс рішення на користь Моффатта, вимагаючи від Air Canada повернути йому завищені витрати, спричинені помилкою ШІ.
Це рішення підкреслює необхідність для компаній нести відповідальність за інформацію, яку надають їхні чат-боти.
Член трибуналу Крістофер Ріверс наголосив на зобов’язанні Air Canada підтримувати точність на своєму веб-сайті, заявивши: «Air Canada має бути очевидним, що вона несе відповідальність за всю інформацію на своєму веб-сайті. Немає різниці, надходить інформація зі статичної сторінки чи чат-бота».
Це рішення створює прецедент для компаній, які мають підтримувати цілісність технологій ШІ, інтегрованих у їхні платформи.
Оскільки технологія розвивається, цей випадок служить нагадуванням про важливість прозорості та підзвітності в службах, керованих штучним інтелектом, і про ризики неконтрольованої взаємодії за участю ШІ.
Це спонукає компанії переглянути свою практику та надати пріоритет точності взаємодії ШІ, щоб уникнути подібних суперечок у майбутньому.