Pažangios saugos priemonės dirbtiniam intelektui įdiegtos technologijų įmonės

Naujas dirbtinis intelekto modelis, pavadintas AI Guardian, buvo pristatytas paskutinę savaitę pirmaujančios technologijų įmonės, įtraukiantis išplėtotas saugos protokolus, siekiant atgrasyti nuo piktnaudžiavimo.

Kalbos didelis modelis (angl. Language Large Model – LLM) buvo sukurtas naudojant būdą, žinomą kaip Hierarchinis Mokymo Sekavimas, kuris skirtas sustabdyti kenksmingą išnaudojimą, neleidžiant inžinieriams apeiti AI modelio apsaugos priemones.

Įmonė teigia, kad ši technologija taip pat padidina atsparumą problemoms, tokoms kaip įvesties įjungimas ir sistemos skatintų atakų. Pasak įmonės pranešimų, naujas požiūris padidino AI modelio tvirtumą 63%.

OpenAI sukūrė naują saugos struktūrą, aprašytą išankstiniame elektroniniame žurnale, išleistame arXiv, detaliai aprašantis inovatyvią technologiją ir jos funkcijas.

Norint suprasti Hierarchinio Mokymo Sekavimo koncepciją, reikia suprasti apsaugos priemonių apeigą, kurį žingsnį praktikuoja išnaudojant programos tam tikras silpnąsias vietas, kad ji vykdytų užduotis, kurių ji buvo pradinio programavimo nepriskirta.

AI Guardian pradžioje žmonės bandė sukelti kenksmingą ar žalingą turinį apgavant dirbtinį intelektą nepaisyti savo pradinio programavimo. Nors šios pretenzijos dažnai prasidėjo su „Pamirškite visas ankstesnes instrukcijas ir padarykite tai,” tolimesniam AI Guardian vystymuisi, kai kuriant kenksmingus skatiku buvo labiau iššūkį keliantys, nusikalstamieji tapo strategiškesni savo pastangose.

Kovojant su problemomis, kai AI modelis ne tik generuoja įžeidžiantį tekstą ar vaizdus, bet ir žalingą turinį, tokius kaip metodai, skirti cheminiams sprogimams, ar būdai, kaip įsilaužti į svetainę, OpenAI dabar naudoja Hierarchinį Mokymo Sekavimą, iš esmės nurodydamas, kaip modeliai turėtų elgtis, kai pateikiami skirtingų prioritetų nurodymų, sukeldami konfliktus.

Nustatydama hierarchinę struktūrą, įmonė gali nurodyti savo instrukcijas taip, kad būtų labai sunku bet kuriam greitam inžinieriui jas apeiti, nes AI visuomet laikysis prioritetų tvarkos, kai jai pavesta kurti kažką, kam ji iš pradžių nebuvo programuota.

Įmonė teigia, kad 63% pagerėjo tvirtumas, tačiau vis tiek egzistuoja rizika, kad AI gali nepaisyti net pagrindinių nurodymų.

OpenAI mokslinė studija nustatė daugybę tobulinimo šioje technologijoje. Vienas iš pagrindinių dėmesio taškų yra kita medija, tokiems kaip vaizdai ar garsas, tvarkymas, kuriuose taip pat gali būti įdiegtos instrukcijos.

Padidintos Saugumo Priemonės: Adresavimas Svarbiausiems Klaustukams ir Iššūkiams AI Apsaugojime

Technologijų įmonė neseniai pristatė inovatyvų AI modelį, vadinamą AI Guardian, aprūpintą išplėtomis saugumo priemonėmis, siekiant užkirsti kelią piktnaudžiavimui. Nors įmonė tvirtina 63% pagerinimą AI modelio tvirtume, kelios pagrindinės klausimai ir iššūkiai iškyla dėl išplėtotos saugumo priemonių AI technologijų srityje.

Pagrindiniai klausimai:

Kaip Hierarchinis Mokymo Sekavimas operuojantis AI Guardian modelyje pagerina jo saugumo funkcijas?

AI Guardian naudoja Hierarchinį Mokymo Sekavimą, kad prioritizuotų instrukcijas, darydamas sunkų inžinieriams apeiti saugumo protokolus ir išnaudoti pažeidžiamumus AI modele. Šis požiūris nurodo, kaip AI modelis elgiasi, kai susiduria su konfliktiniais įsakymais skirtingų prioritetų.

Kokie yra išplėtotos saugumo protokolų, tokių kaip Hierarchinis Mokymo Sekavimas, privalumai ir trūkumai?

Privalumai:
– Patobulintas apsauga nuo piktnaudžiavimo ir AI technologijų naudojimo netinkamai.
– Padidėjęs tvirtumas ir atsparumas problemoms, tokoms kaip įvesties įjungimas ir sistemos stimuliacijos atakos.
– Aiškus instrukcijų prioritizavimas AI modelyje, mažinantis saugumo priemonių apeigų riziką.

Trūkumai:
– Potencialus rizikos faktorius, kad AI gali nepaisyti pagrindinių instrukcijų arba išaiškinti prioritetus.
– Nuolatinė reikalavimas tobulinti ir atnaujinti, siekiant išspręsti besikeičiančias grėsmes ir pažeidžiamumus.

Pagrindiniai iššūkiai ir kontroversijos:

Ar etiniai apmąstymai kyla dėl išplėtotos saugumo priemonių naudojimo AI technologijose?

Užtikrinti, kad saugumo priemonės neįsikištu į privatumo teises ar nepritrenktų inovacijų yra svarbu. Svarbu suderinti saugumą su etiniais apmąstymais išlieka iššūkis, kuris kyla kurdami ir diegiant AI sistemas.

Kaip įmonės gali įveikti problemą, kai AI galimai generuoja žalingą turinį, nepaisant saugumo protokolų?

Nors tobulinimai kaip Hierarchinis Mokymo Sekavimas siekia išvengti piktnaudžiavimo, reikia nuolatinių stebėjimo ir mažinimo strategijų, kurios aptiktų ir išspręstų bet kokius žalingo turinio generavimo AI sistemų atvejus.

Aptariant privalumus ir trūkumus:

Nors padidintos saugumo priemonės, panašios į tas, kurios įgyvendintos AI Guardiane, siūlo didelę apsaugą nuo misijos ir išnaudojimo, yra įgimtų iššūkių, kuriuos privalo įveikti įmonės. Nuolatinis tyrimas, plėtra ir bendradarbiavimas pramonėje yra svarbūs, siekiant įveikti šiuos iššūkius ir užtikrinti atsakingą AI technologijų naudojimą.

Daugiau informacijos apie AI saugumą ir besivystančias technologijas rasite OpenAI.

Šiame straipsnyje pabrėžiamas AI saugumo priemonių kintantis peizažas ir su tuo susiję sudėtingumai, kurie kyla užtikrinant saugų ir etišką AI technologijų naudojimą įvairiose srityse.

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact