Gerinant AI Patikimumą naudojant įmonės Cleanlab inovatyvią programą.

Rizikos mažinimas dirbant su dirbtiniais intelekto kalbos modeliais

Su dirbtiniu intelektu (DI) transformuojant pramonę, dėmesys sutelktas į Generatyvųjį DI ir jo kūrybiškumą. Nepaisant jo potencialo, faktų nuo fikcijos atskirimas kelia iššūkių įmonėms, kurios vertina šio įrankio naudojimą. Įsiterpkite „Cleanlab“, DI startuolis, išaugęs iš MIT kvantinio skaičiavimo laboratorijos, turintis naujovišką sprendimą, didinančią vartotojų pasitikėjimą aukšto rizikos scenarijais.

Pristatomas patikimas kalbos modelis

„Cleanlab“ sukūrė programą, pavadintą Patikimu kalbos modeliu, kuris reitinguoja kalbos modelio išvestis nuo 0 iki 1 patikimumo pagrindu. Tai leidžia vartotojams atskirti, kurių DI generuojamos atsakymai yra patikimi, o kuriems reikėtų atsisakyti, pozicionuodama „Cleanlab“ kaip savotišką DI melagingo atpažinimo įrankį.

„Cleanlab“ generalinis direktorius Curtisas Northcuttas cituojamas išreiškęs optimizmą, kad šis įrankis padidins didelių kalbos modelių pritaikomumą verslo aplikacijose. Jis pabrėžia svarbą įveikti iššūkius, kylančius dėl DI laikino „halucinacijų”, kurių pagalba generuojama neteisinga ar nesąmoninga informacija.

Tikslumas pirmiausioje vietoje

Iš „Vectara“ atliktos studijos buvo nerimą kelianti išvada, kad apie 3% laiko pokalbių robotai, vis labiau tapdami informacijos paieškos centru, teikia sukonstruotą informaciją, kurios tikimybė yra žymiai didesnė nei nulis, – svarbi klaidų riba verslo pasaulyje.

„Cleanlab“ pasiekimai ir ateities tikslai

2021 m. „Cleanlab“ padarė žingsnius nustatydama klaidas duomenų rinkiniuose, kuriuos dažnai naudoja mokymosi algoritmų mokymui. Nuo tada šią technologiją panaudojo pastebimos korporacijos, įskaitant „Google“, „Tesla“ ir „Chase“. Patikimas kalbos modelis taikomas šiai principui, siekdamas parodyti nekorektiškumus ir nustatyti sistemos bendrą patikimumą.

„Cleanlab“ pristatytoje pristatyme cituojamas pavyzdys, kaip toks įrankis galėtų veikti. Paklaustas, kiek kartų raidė ‘n’ pasirodo žodyje „enter“, pokalbių robotų kintantys atsakymai iliustravo atsitiktinumus DI atsakymuose. „Cleanlab“ įvertino teisingą atsakymą su kukliu patikimumo įvertinimu, pabrėžiant potencialią riziką be tokio įvertinimo sistemos. Tai patvirtina „Cleanlab“ misiją: padaryti DI nepastovumą akivaizdesnį ir užkirsti kelią klaidinančių teisingų atsakymų sukūrimui, kurie galėtų sukelti klaidingą saugumo jausmą aukštose rizikos situacijose.

AI patikimumo didinimas su „Cleanlab“ inovatyviu požiūriu

Palaipsniui besididinantis priklausomumas nuo DI padaro būtinu, kad jo išvestys būtų tikslūs ir patikimi. „Cleanlab“ Patikimu kalbos modeliu šis būtinumas sprendžiamas tiesiogiai. Reitinguodamas išvestis patikimumui, vartotojai gali priimti informuotesnius sprendimus dėl informacijos, kurią gauna iš DI sistemų. Tai ypač svarbu srityse, kur sprendimas pagrįstas netikslinga DI informacija gali turėti rimtų pasekmių.

Pagrindiniai iššūkiai dėl AI patikimumo

Vienas pagrindinių iššūkių dėl AI patikimumo yra įvairi galimybė DI sistemoms, ypač kalbos modeliams, generuoti tikį nuostabaus, bet netikslios ar nesąmoningos reakcijas (vadinamas „halucinacijomis”). Kitas iššūkis yra iškreipto ir klaidingų duomenų rinkinių esminiai būdai, kurie gali skleisti neteisybes ir iškreiptas perspektyvas, kai modeliai yra įgyvendinami.

Kontroversijos, susijusios su AI patikimumu

AI patikimumas dažnai būna kvestionuojamas, kadangi nuspėjamų sprendimų priėmimo procesų neaiškumas giliųjų mokymosi modelių viduje gali vesti prie neįžvalgumo ir atsakomybės trūkumo. Taip pat kyla susirūpinimas, kad priklausomybė nuo DI galėtų vesti prie pasyvumo, gali netrūkti kritinio mąstymo ir sprendimų priėmimo įgūdžių vartotojams.

„Cleanlab“ požiūrio privalumai

Privalumai:
Padidinta skaidrumas: Suteikiant patikimumo įvertinimą, vartotojai gali suprasti, kiek pasitikėjimo mašina pasirodo.
Pagerinta sauga ir atsakomybė: Aukštų rizikos sektoriuose, tokiuose kaip sveikatos apsauga, finansai ar teisėsauga, klaidingos informacijos veiksmai gali turėti rimtų pasekmių. Patikimas kalbos modelis gali veikti kaip apsauga.
Duomenų teisės taisymas: „Cleanlab“ istorija, nustatant klaidas mokymosi duomenų rinkiniuose, reiškia, kad jie ne tik vertina išvestis, bet taip pat prisideda prie AI pagerinimo šaltinyje.

Trūkumai:
Perdaug priklausomybė nuo įvertinimų: Vartotojai gali priklausyti nuo patikimumo įvertinimų, kurie kartais gali nepaneigti tiesos ar pritaikyti naujoms situacijoms.
Ribotas taikymo laukas: Pradinis paleidimas sutelkiamas į kalbos modelius. Kiti AI formos, pavyzdžiui, paveikslų atpažinimas ar autonominės sistemos, vis dar gali sukelti riziką, kurią spręstų įrankis.

Norėdami sužinoti daugiau apie AI patikimumą ir naujausius AI saugumo vystymus, galite pasitelkti gerbiamus organizacijų ir akademinės institucijų domenus, susijusius su AI tyrimais, tokius kaip:

Google AI
DeepMind
OpenAI
Microsoft AI Research
MIT IBM Watson AI Lab

Svarbu užtikrinti, kad vartotojai būtų nukreipti į pagrindinius šių organizacijų domenus, suteikiant prieigą prie didelio kiekio informacijos apie naujausius AI inovacijas, saugos priemones ir tyrimų pažangos.

Privacy policy
Contact