Povečanje zanesljivosti umetne inteligence z inovativno aplikacijo Cleanlab.

Zmanjševanje tveganja pri jezikovnih modelih umetne inteligence

Z umetno inteligenco (AI), ki spreminja panoge, je pozornost usmerjena na Generativno AI in njegovo ustvarjalno moč. Kljub potencialu ločevanje dejstev od izmišljene zgodbe predstavlja izziv za podjetja, ki razmišljajo o njegovi uporabi. Vstopite v Cleanlab, AI startup, rojen iz kvantnega računalniškega laboratorija MIT, ki uporablja inovativno rešitev za povečanje zaupanja uporabnikov v visokotveganih scenarijih.

Predstavitev zanesljivega jezikovnega modela

Cleanlab je razvil aplikacijo, imenovano Zanesljiv jezikovni model, ki ocenjuje izhode jezikovnega modela na lestvici od 0 do 1 glede zanesljivosti. To uporabnikom omogoča, da ločijo, kateri odgovori, ki jih ustvari AI, so verodostojni, in katerim je treba ne verjeti, kar pozicionira Cleanlab kot vrsto detektorja lažnivih AI.

Izvršni direktor Cleanlab-a, Curtis Northcutt, je citiran, da bo to orodje okrepilo privlačnost velikih jezikovnih modelov za poslovne aplikacije. Poudarja pomen premagovanja ovir, ki jih predstavljajo občasne “halucinacije” AI, ki se nanašajo na tvorbo napačnih ali nesmiselnih informacij.

Natančnost v središču pozornosti

Zaskrbljujoči izsledki študije Vectara so pokazali, da chatboti, ki postajajo vse bolj osrednji pri pridobivanju informacij, približno 3% časa posredujejo izmišljene informacije – pomemben odstotek napake v poslovnem svetu.

Dosežki in cilji Cleanlab-a v prihodnosti

Leta 2021 je Cleanlab naredil korake naprej pri identifikaciji napak v nizih podatkov, ki se pogosto uporabljajo za usposabljanje algoritmov strojnega učenja. Opazna podjetja, vključno z Googlom, Teslo in Chase, so od takrat zaposlila to tehnologijo. Zanesljiv jezikovni model razširja to načelo na chatbote, s ciljem, da odkrije neskladja in določi celotno zanesljivost sistema.

Primer, naveden v predstavitvi podjetja Cleanlab, je prikazal, kako bi takšno orodje lahko delovalo. Ko je bil vprašan, kolikokrat se v besedi »vstop« pojavi črka ‘n’, so se različni odgovori chatbota ilustrirali naključnost v odgovorih AI. Orodje Cleanlab-a je ocenilo pravilen odgovor z zmerno zanesljivostjo, poudarjajoč potencialno tveganje brez takšnega sistema ocenjevanja. To underlines Cleanlab-ovo poslanstvo: narediti nepredvidljivo naravo AI bolj očitno in preprečiti, da bi zavajajoči pravilni odgovori ustvarili lažen občutek varnosti v visoko tveganih scenarijih.

Povečanje zanesljivosti AI z inovativnim pristopom Cleanlab-a

Ko se zanašanje na AI povečuje, postaja ključno zagotoviti, da so njegovi izhodi natančni in zanesljivi. Zanesljiv jezikovni model Cleanlab-a se spoprijema s to nujnostjo. Z ocenjevanjem izhodov zanesljivosti lahko uporabniki sprejmejo bolj informirane odločitve o informacijah, ki jih prejmejo iz AI sistemov. To je še posebej kritično na področjih, kjer lahko napačna odločitev na podlagi napak v informacijah, ki jih posreduje AI, prinese resne posledice.

Ključni izzivi pri zanesljivosti AI

Eden od glavnih izzivov pri zanesljivosti AI je inherentna sposobnost AI sistemov, predvsem jezikovnih modelov, da generirajo verjetne, vendar napačne ali nesmiselne odgovore (znane kot “halucinacije”). Drugi izziv je prisotnost pristranosti in napak v naborih podatkov za usposabljanje, kar lahko ohranja napačne informacije in pristransko perspektivo pri uporabi modelov.

Kontroverze, povezane z zanesljivostjo AI

Zanesljivost AI se pogosto postavlja pod vprašaj, saj lahko neprozornost odločitvenih procesov v modelih globokega učenja privede do nepredvidljivosti in pomanjkanja odgovornosti. Prav tako obstaja skrb, v kolikšni meri bi odvisnost od AI lahko privedla do samozadostnosti, kar bi lahko razkrajalo kritično razmišljanje in sprejemanje odločitev med uporabniki.

Prednosti pristopa Cleanlab-a

Prednosti:
Povečana preglednost: Zagotavljanje ocene zanesljivosti pomaga uporabnikom razumeti raven zaupanja v izhod stroja.
Človeška varnost in odgovornost: V visoko tveganih sektorjih, kot so zdravstvo, finance ali policijski organi, lahko posledice delovanja na napačne informacije prinesejo resne posledice. Zanesljiv jezikovni model lahko deluje kot zaščita.
Popravljanje podatkov: Cleanlab-ova zgodovina identifikacije napak v naborih podatkov za usposabljanje pomeni, da ne samo ovrednotijo izhode, ampak tudi prispevajo k izboljšanju AI na izvoru.

Slabosti:
Prevelika odvisnost od ocen: Uporabniki se lahko preveč zanašajo na ocene zanesljivosti, ki morda ne zajamejo vedno odtenkov resničnosti ali uporabnosti za nove situacije.
Omejen obseg: Začetni zagon se osredotoča na jezikovne modele. Drugi oblike AI, kot so prepoznavanje slik ali avtonomni sistemi, lahko še vedno predstavljajo tveganja, ki jih orodje ne naslavlja.

Za raziskovanje zanesljivosti AI in razvoja v področju varnosti AI, se lahko obrnete na ugledne domene organizacij in akademskih institucij, vključenih v raziskave AI, kot so:

Google AI
DeepMind
OpenAI
Microsoft AI Research
MIT IBM Watson AI Lab

Pomembno je zagotoviti, da so uporabniki usmerjeni na glavne domene teh organizacij, ki omogočajo dostop do široke palete informacij o najnovejših inovacijah AI, pristopih k varnosti ter raziskovalnih dosežkih.

Privacy policy
Contact