Raduša drauds: Pretinieki izmanto ģeneratīvo AI kiberoperācijās

Nesenie notikumi Microsoft iznīcināšanas un aizsardzības reakcijā uz Amerikas Savienoto Valstu pretinieku ģeneratīvā intelekta (AI) izmantoto kiberoperāciju ir atklājuši izceltību kiberdrošības ainā. Lai arī šo adversālo grupu izmantotās tehnoloģijas nebija jaunas, tās uzrādīja iespēju izmantošanu lielas valodas modeļus, lai ievērojami uzlabotu viņu uzbrukuma spējas.

Sadarbodamies ar partneri OpenAI, Microsoft atklāja gadījumus, kad Irāna, Ziemeļkoreja, Ķīna un Krievija mēģināja izmantot ģeneratīvo AI uzbrukumiem kiberoperācijās. Jo īpaši Microsoft uzsvera nozīmi pakļaut šīs uzbrukumus publiskam atklāšanai, pat ja tie bija agrīnā stadijā vai pakāpeniska procesa daļa. Mērķis bija palielināt apziņu par lielas valodas modeļu izmantošanu ģeopolitiskiem konkurentiem, lai pārkāptu tīklus un veiktu ietekmes operācijas.

Lielas valodas modeļi, piemēram, OpenAI ChatGPT ir dramatiski izmainījuši kiberdrošības spēli. Kamēr mašīnmācīšanos sākotnēji izmantoja kiberdrošības uzņēmumi aizsardzības nolūkos, tagad to ir pieņēmuši arī noziedznieki un uzbrucēji. Microsoft ievērojamā ieguldījums OpenAI apliecina šīs attīstības nozīmību.

Atklājot dažādu pretinieku grupu kiberdarbību, Microsoft atklāja, kā tās izmanto ģeneratīvo AI dažādiem nolūkiem. Piemēram, Ziemeļkorejas Kimsuky grupa izmantoja modeļus, lai pētītu ārvalstu domniecības un radītu saturu spūšanas kampanjām. Irānas Revolucionāro gvardi izmantoja lielas valodas modeļus, lai uzlabotu sociālā inženierija metodes, atrisinātu programmatūras kļūdas un izpētītu veidus, kā izvairīties no atklāšanas ietekmētajos tīklos.

Krievijas GRU militārā vienība Fancy Bear koncentrējās uz satelītu un radaru tehnoloģiju izpēti, kas ir saistīta ar Ukrainas konfliktu. Savukārt, Ķīnas kiberespionāžas grupas Aquatic Panda un Maverick Panda izmantoja modeļus, lai izpētītu, kā lielas valodas modeļi varētu paplašināt to tehniskās operācijas un iegūtu informāciju par dažādiem jutīgiem jautājumiem.

Microsoft atklājumi sakrita ar OpenAI novērtējumu, ka tā pašreizējam ChatGPT modelim ir ierobežotas spējas ģeneratīvā AI ļaunprātīgās kiberdrošības uzdevumos, kas ir sasniedzams ar ne-ai spējām. Tomēr nākotnes AI un lielas valodas modelu attīstības un izvietošanas saistīto potenciālo risku nevajadzētu novērtēt par zemu.

Kā eksperti ir brīdinājuši, gan Ķīna, gan mākslīgais intelekts tiek uzskatīti par apjomīgu draudu un izaicinājumu. Ir būtiski atbildīgi attīstīt AI ar drošības apsvērumiem, jo valstu izmantojums lielas valodas modeļu jomā neatbilstami novedīs pie tā, ka tie kļūs par iespaidīgiem ieročiem.

Kritiķi ir norādījuši, ka ChatGPT un līdzīgo modeļu steidzama izlaišana bija kritisks, argumentējot, ka drošība attīstības laikā netika lietderīgi ņemta vērā. Daži kiberdrošības profesionāļi ir arī kritizējuši Microsoft pieeju, ierosinot koncentrēties uz drošākiem pamatmodeļiem, nevis pārdot aizsardzības rīkus, lai risinātu tās pašas veidotas ievainojamības.

Pretinieku kiberoperāciju atklāšana un iznīcināšana uzsvēra nepieciešamību palielināt piesardzību un drošības pasākumus saskarē ar attīstību AI tehnoloģijām. Attīstoties AI un lielām valodas modelēm, gan aizsardzības, gan uzbrucēju puses būs jāpielāgo savas stratēģijas, lai mazinātu šīs radušās draudu potenciālos riskus.

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact