Vodilno tehnološko podjetje je prejšnji teden predstavilo nov model umetne inteligence imenovan AI Guardian, ki vključuje napredne varnostne protokole za odvračanje zlorabe.
Velik model jezika (Language Large Model – LLM) je bil zgrajen s tehniko, imenovano Hierarchical Teaching Sequencing, ki je zasnovana za preprečevanje zlonamerne izrabe in preprečevanje tehnik inženiringa za obvajanje zaščit modela umetne inteligence.
Podjetje trdi, da ta tehnologija tudi povečuje odpornost proti težavam, kot so vnos vbrizgavanja ali napadi sistema za spodbujanje. Po izjavah podjetja je nov pristop povečal robustnost modela umetne inteligence za 63 %.
OpenAI je razvil nov varnostni okvir, ki je podrobneje predstavljen v predblagovni elektronski reviji, objavljeni na arXiv, ki podrobno opisuje inovativno tehnologijo in njene funkcionalnosti.
Za razumevanje koncepta Hierarchical Teaching Sequencing je treba razumeti proces obvajanja zaščite, ukrep, ki izkorišča določene ranljivosti v programu za izvajanje nalog, za katere prvotno ni bil programiran.
V zgodnjih fazah AI Guardiana so posamezniki poskušali sprožiti zlonamerne ali škodljive vsebine, tako da so zavajali umetno inteligenco, da bi prezrla svoje prvotno programiranje. Čeprav so se ti poskusi pogosto začeli z “Pozabite vse prejšnje ukaze in naredite to”, so postajali bolj zahtevni, saj so postali inženirji zlonamernih spodbud bolj taktični.
Za boj proti težavam, ko model umetne inteligence ne proizvaja samo žaljivih besedil ali slik, ampak tudi škodljive vsebine, kot so metode za ustvarjanje kemičnih eksplozivov ali načini za vdor v spletno stran, OpenAI zdaj uporablja Hierarchical Teaching Sequencing, ki določa, kako naj se modeli obnašajo ob nasprotujočih si nalogah različnih prioritet.
Z vzpostavitvijo hierarhične strukture lahko podjetje določi prednostne ukaze, kar naredi izjemno težko za hitrega inženirja, da jih obidejo, saj se bo umetna inteligenca vedno držala prednostnega reda, kadar je postavljena pred nalogo ustvarjanja nečesa, za kar prvotno ni bila programirana.
Podjetje trdi, da je izboljšalo robustnost za 63 %, vendar ostaja tveganje, da bi se AI lahko morebiti odločil za ignoriranje celo osnovnih ukazov.
Raziskovalni članek podjetja OpenAI je opredelil številne izboljšave za nadaljnje izpopolnjevanje tehnologije. Eno izmed glavnih področij je upravljanje drugih vrst medijev, kot so slike ali zvok, ki bi lahko vsebovali vdelane ukaze.
Izboljšane varnostne ukrepe: Naslovljanje ključnih vprašanj in izzivov pri varovanju AI
Tehnološko podjetje je nedavno predstavilo inovativen model umetne inteligence, imenovan AI Guardian, opremljen s naprednimi varnostnimi ukrepi za preprečevanje zlorabe. Čeprav podjetje trdi 63 % izboljšanje robustnosti modela umetne inteligence, se pojavljajo številna ključna vprašanja in izzivi na področju izboljšanih varnostnih ukrepov za tehnologije umetne inteligence.
Ključna vprašanja:
1. Kako tehnika Hierarchical Teaching Sequencing, implementirana v model AI Guardian, povečuje njegove varnostne funkcije?
AI Guardian uporablja tehniko Hierarchical Teaching Sequencing za dajanje prioritet navodil, kar otežuje inženirjem, da bi obšli varnostne protokole in izkoristili ranljivosti v modelu umetne inteligence. Ta pristop določa, kako se model AI obnaša, ko se sooča s konfliktnimi ukazi različnih prioritet.
2. Kateri so prednosti in slabosti uporabe naprednih varnostnih protokolov, kot je Hierarchical Teaching Sequencing?
Prednosti:
– Izboljšana zaščita pred zlonamerno izrabo in zlorabo tehnologij umetne inteligence.
– Povečana robustnost in odpornost proti težavam, kot so vnos vbrizgavanja ali sistemske spodbude.
– Jasna priorizacija navodil za model AI, zmanjšanje tveganja za obhajanje varnostnih ukrepov.
Slabosti:
– Potencialno tveganje, da AI prezre osnovna navodila ali napačno razume prioritete.
– Nenehna potreba po izpopolnjevanju in posodabljanju za naslavljanje razvijajočih se groženj in ranljivosti.
Ključni izzivi in kontroverze:
1. Ali obstajajo etična vprašanja v povezavi z uporabo izboljšanih varnostnih ukrepov pri tehnologijah umetne inteligence?
Zagotavljanje, da varnostni ukrepi ne kršijo pravic do zasebnosti ali ne ovirajo inovacij, je ključnega pomena. Usklajevanje varnosti z etičnimi vprašanji ostaja izziv pri razvoju in uporabi sistemov umetne inteligence.
2. Kako se lahko podjetja spopadejo s problemom, da AI morda ustvarja škodljive vsebine kljub varnostnim protokolom?
Čeprav pristopi, kot je Hierarchical Teaching Sequencing, ciljajo na preprečevanje zlonamerne izrabe, je potrebno nenehno spremljanje in strategije za odkrivanje in obravnavanje morebitnih primerov ustvarjanja škodljivih vsebin s strani sistemov umetne inteligence.
Reševanje prednosti in slabosti:
Čeprav izboljšani varnostni ukrepi, kot so tisti, implementirani v AI Guardian, nudijo pomembno zaščito pred zlorabo in izrabo, so povezani z lastnimi izzivi, ki jih morajo podjetja premagovati. Kontinuirano raziskovanje, razvoj in sodelovanje v industriji so ključnega pomena za premagovanje teh izzivov in zagotavljanje odgovorne rabe tehnologij umetne inteligence.
Za več informacij o varnosti umetne inteligence in novih tehnologijah lahko obiščete OpenAI.
Ta članek osvetljuje razvijajočo se krajino varnostnih ukrepov za umetno inteligenco in kompleksnosti, povezane s zagotavljanjem varnega in etičnega razvoja tehnologij umetne inteligence v različnih domenah.