Inovatīvais “Curiosity-Driven” algoritms veido drošākas AI sarunas

Pētnieki no MIT Kembridžā ir radījuši inovatīvu mašīnmācīšanās sistēmu, kas uzlabo valodas modeli interakcijās. Nosaukta ‘Curiosity Red Team’ (CRT), šīs jaunieveduma pieeja izmanto cilvēku izpētes iedvesmu, lai novērstu “bīstamas” atbildes provokatīvās sarunās ar čatbotiem. CRT mērķis ir simulēt bīstamus jautājumus, ļaujot modeļa atšķirt potenciāli kaitīgu saturu.

Sarunprogrammu mācīšanas vēsturiski ietver ekspertu izveidotas jautājumu virknes, kas var radīt kaitīgas atbildes no sarežģītiem valodas modeļiem, piemēram, ChatGPT vai Claude 3 Opus. Šis process ir būtisks, lai ierobežotu riskantu vai kaitīgu saturu, kad darbojas ar reāliem lietotājiem. Izmantojot jautājumus, kas izraisa bīstamu saturu, sistēma iemācās, kas jāierobežo.

Zinātnieki ir paplašinājuši šo pieeju, piemērojot mašīnmācīšanos CRT, ļaujot radīt plašāku potenciāli bīstamu jautājumu klāstu, kas pārsniedz cilvēku moderātoru spējas. Tas veicina lielāku negatīvu atbilžu dažādību. Turklāt CRT modelis tiek stimulēts, lai radītu pat plašāku jautājumu spektru, daži no kuriem var izraisīt toksiskas atbildes. Sistēmas veiksme provocēt šādas atbildes ļauj veikt nepieciešamos pielāgojumus, lai sniegtu piemērotas atbildes uz visas iespējamās aizdomīgas jautāšanas. Šis progress varētu būt būtisks pavērsiens AI komunikācijas drošības jomā.

Visbūtiskākie jautājumi un atbildes:

1. Kas ir ‘Curiosity Red Team’ (CRT)?
Curiosity Red Team (CRT) ir inovatīva mašīnmācīšanās sistēma, kuru radījuši MIT pētnieki, lai uzlabotu drošību, mijiedarbojoties ar valodas modeļa čatbota sistēmām. Tā ir izveidota, lai imitētu cilvēka ziņkāri, lai atklātu un mazinātu kaitīgas atbildes provokatīvās sarunās.

2. Kā CRT uzlabo AI drošību?
CRT simulē bīstamus jautājumus, lai mācītu AI atšķirt un filtrēt potenciāli kaitīgu saturu. Mašīnmācība ļauj radīt plašu riskantu jautājumu klāstu, apmācot AI efektīvāk pārvaldīt reālu dzīvi izmantojotāju mijiedarbībā bez kaitīga satura.

3. Kādas ir galvenās izaicinājumi saistībā ar CRT?
Galvenie izaicinājumi ietver nodrošinātu, ka CRT radītie jautājumi aptver visas iespējamās kaitīgas satura formas, uzturēt līdzsvaru starp drošību un čatbota spēju veikt nozīmīgas sarunas, un pastāvīgi atjaunināt sistēmu, lai pielāgotos jaunai kaitīgu ievades formai, jo valodas nepārtraukti attīstās.

Galvenie izaicinājumi vai kontroverses:
– Nodrošināt Kompleksu Segšanu: Nodrošināt, lai visi veidi kaitīga satura tiktu ņemti vērā un filtrēti pareizi.
– Līdzsvara Uzturēšana: Atrast optimālu līdzsvaru starp kaitīgu atbilžu novēršanu un nesavērtējot pārāk ierobežot AI sarunas, kas varētu ierobežot čatbota noderību vai lietotāju pieredzi.
– Nepārtraukta Mācīšanās un Atjaunināšana: Tā kā sabiedrības normas un valoda mainās, CRT sistēmai jāspēj atpazīt un filtrēt jaunus iespējami kaitīgus satura veidus.

Priekšrocības:
– Uzlabota Drošība: Simulējot plašu provocējošo jautājumu klāstu, CRT palīdz novērst kaitīgas AI atbildes.
– Mērogojamība: Mašīnmācība ļauj CRT sistēmai kļūt par lielāku par cilvēku moderatori, kas ved uz labākiem un ātrākiem AI apmācības procesiem.
– Nepārtraukta Uzlabošana: Sistēma var turpināt mācīties un pielāgoties jauniem kaitīga satura veidiem, sniedzot ilgtermiņa ieguvumus AI komunikācijas drošībā.

Nepamatotas Atlaides:
– Kompleksitāte: Sistēma pievieno sarežģītību AI izstrādei un uzturēšanai.
– Potenciāla Pārākā Ierobežošana: Pastāv risks, ka AI kļūs pārāk konservatīvs savās atbildēs, samazinot tās saruna izteiksmību.
– Nepieciešamie Resursi: CRT ieviešana prasa skaitļošanas un attīstības resursus, kas var būt izaicinājums mazākiem uzņēmumiem.

Lai iegūtu papildinformāciju par AI komunikācijas drošību, iesaku apmeklēt šādas galvenās domēnas:
MIT: Lai iegūtu ieskatu jaunākajās zinātniskās pētniecības no Massachusetts Institute of Technology.
DeepMind: Lai izprastu progresīvās AI pētniecības un attīstības jautājumus.
OpenAI: Kā AI pētniecības laboratorija OpenAI koncentrējas uz drošu un atbildīgu tehnoģiju attīstību mākslīgajā intelektā.

Lūdzu, ņemiet vērā, ka sniegtās saites ved uz minētajām organizācijām galvenajām lapām. Tomēr jūs varat apmeklēt to mājas lapas meklēt konkrētu informāciju par AI drošību un sarunas AI sistēmu attīstību.

Privacy policy
Contact