Ribojimai dirbančiai dirbtinei intelektui: Ar „chatbot’ai“ gali pakeisti žmogaus sąveiką?

Epochoje, kai naudojama dirbtinė intelektą ir „chatbot’us“, vis labiau tariama, kad šios technologijos gali visiškai pakeisti žmogaus sąveiką įvairiose srityse. Tačiau pastarieji įvykiai sukėlė susirūpinimą dėl ribojimų ir rizikos, susijusios su vien tik priklausymu nuo šių automatizuotų sistemų. Air Canada „chatbot’o“ atvejis yra akivaizdus pavyzdys potencialiems pavojams, naudojant dirbtinę intelektą klientų aptarnavime.

Džeikas Moffatas, praradęs savo senelę, kreipėsi į Air Canada „chatbot’ą“ dėl mirusiųjų kainų informacijos. „Chatbot’as“ jam patarė nusipirkti bilietą už pilną kainą ir tada per 90 dienų prašyti dalinio grąžinimo. Moffatas sekė šią instrukciją ir netgi išsaugojo pokalbio ekrano kopiją. Tačiau, kai jis kreipėsi į Air Canada dėl grąžinimo, jam buvo pranešta, kad „chatbot’as“ pateikė neteisingą informaciją.

Šis įvykis pabrėžia kritinę problemą su generuojančiu dirbtine intelektu, kuris valdo klientų aptarnavimo „chatbot’us“: potencialą pateikti neteisingos informacijos arba taip vadinamus „halucinacijas“. Dirbtinė intelektas negali atskirti tarp tikslios ir klaidingos informacijos; jis gali tik pertvarkyti esamą tekstą į tikėtinas atsakymus. Kai kuriais atvejais dirbtinės intelekto sukurtas turinys gali atsivesti prie neegzistuojančios informacijos, kuris sukelia painiavą ir frustraciją.

Air Canada atsakas buvo lygiai taip pat keistas. Vietoj atsakomybės ėmėsi kaltinti Moffatą, kad jis nepatikrino „chatbot’o“ nurodymų su oficialia politika. Air Canada pareiškė, kad klientai turėtų būti įsisąmoninę „chatbot’o“ nepatikimumą, nors jie vis tiek jį naudoja savo svetainėje.

Moffatas atsisakė priimti Air Canada atsisakymą ir pateikė ieškinį, galiausiai laimint bylą. Avialinija, teigdama, kad „chatbot’as“ yra „atskiras teisinis subjektas“, bando išsivaduoti ir atsikratyti atsakomybės. Neteisinga elgtis su bot’u, kuriam trūksta sprendimų priėmimo galimybių, kaip su nepriklausomu subjektu, už kurio paties veiksmus atsako.

Šis įvykis tarnauja kaip signalas, atskleidžiantis pavojus visiškai pasitikėti AI valdomomis sistemomis. Nors dirbtinės intelektas technologijos beabejo pasiektos pažangos, bet jis vis dar negali atkartoti subtilaus supratimo, empatijos ir sprendimų, kuriuos suteikia žmogaus sąveika.

Vietoj to, kad būtumei vien priklausomi nuo beprotiškų robotų, svarbu pripažinti dirbtinės intelektas ribojimus ir suprasti, kad jis negali pakeisti žmonių. Nors dirbtinė intelektas gali pagerinti ir optimizuoti tam tikrus procesus, jis negali pakeisti žmogiško prisilietimo, kuris yra būtinas sudėtingai sąveikai ir kritiniams sprendimams.

Organizacijoms ir asmenims svarbu priapprovuoti dirbtinį intelektą atsargiai, pripažįstant jo galimus trūkumus ir įtraukiant žmogišką priežiūrą ir intervencijas. Vietoj to, kad stebėtų dėmesį į AI kaip sidabriniu šoviniu visiems mūsų problemoms, turėtume būti orientuoti į bendradarbiavimo pastangas, kurios išnaudoja tiek AI, tiek žmogaus intelekto stiprybes kuriant labiau subalansuotą ir efektyvesnę ateitį.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact