Air Canada да спази неточната политика за връщане на пари, предложена от чатбота

Гражданският решебен трибунал на Британска Колумбия нареди на Air Canada, канадската авиокомпания, да спази политика за връщане на пари, която беше грешно препоръчана от собствения й чатбот. Тази решебодателствена стъпка е от значение за установяване на отговорността на компаниите за действията на техните системи с изкуствен интелект. Кристофър Ривърс от CRT я описа като „забележителна“.

Инцидентът възникна, когато канадски резидент, Джейк Мофат, търсеше цени за смърт. Чатботът на Air Canada предостави грешна информация, като посъветва Мофат да закупи обикновен билет и по-късно да поиска частично възстановяване по политиката на авиокомпанията за смърт. Въпреки това Мофат по-късно откри, че ретроспективни заявления за възстановяване не се разрешават.

Снимки на интеракцията с чатбота бяха представени като доказателство пред CRT. Трибуналът откри, че Air Canada не успя да обясни защо не трябва да бъде придържана отговорна, тъй като чатботът е част от уебсайта на авиокомпанията, като така компанията носи отговорност за предоставената информация.

Това решение служи като напомняне за компаниите, че не могат да се освободят от отговорността за разпространението на неверна информация от техните системи с изкуствен интелект. Air Canada се ангажира да подобри обучението и точността на чатбота си, както и да поясни политиката си за цените за смърт както на уебсайта си, така и в самия чатбот. Авиокомпанията беше наредена да възстанови парите на Мофат в рамките на 14 дни.

Този случай може да служи като прецедент за подобни инциденти и да насърчи компаниите да бъдат по-внимателни при разработката и прилагането на технологиите с изкуствен интелект, особено чатботовете. Осигуряването на достъпността и надеждността на чатботовете е от съществено значение за удовлетворяването на клиентите и избягването на правни проблеми.

The source of the article is from the blog elblog.pl

Privacy policy
Contact