Valstybės pradeda naudoti generatyvinį dirbtinį intelektą kibernetiniuose užpuolimuose, kelia nerimą dėl nacionalinės saugos

Microsoft pranešė šokiruojančius duomenis apie vis dažniau įsigalintį generatyvinį dirbtinį intelektą (DI), kurį valstybės su įtampa su Jungtinėmis Valstijomis pradėjo naudoti. Šis technologijų gigantas pranešė, kad tokių priešų kaip Iranas, Šiaurės Korėja, Rusija ir Kinija pradėjo naudoti Microsoft ir OpenAI sukurtus DI įrankius planuojant masinius kibernetinius užpuolimus prieš JAV.

Nors Microsoft ir OpenAI sugebėjo identifikuoti ir sustabdyti kai kuriuos šių grėsmių, bendrovė pabrėžė poreikį viešai atskleisti šiuos ankstyvosios stadijos metodus. Kibernetinės saugos ekspertai įspėja, kad generatyvinio DI naudojimas užpuolantęs kibernetinėms operacijoms yra didelė nacionalinės saugos grėsmė.

Tradiciškai kibernetinės saugos įmonės naudojo mašininį mokymąsi gynybos tikslais. Tačiau didžiųjų kalbos modelių (LLM) atsiradimas, kurių vadovauja OpenAI „ChatGPT”, intensyvino žaidimą „žirnienos” ir kenksmingų actorių tarpūsavyje. Valstybės sąjungos vis labiau pasinaudoja LLM modeliais, siekdamos sustiprinti savo gebėjimus skverbiantis į tinklus ir vykdyti įtakos operacijas.

Microsoft savo pranešime pabrėžė keletą atvejų, kai buvo neišjungti generatyvinio DI paskyrų ir išteklių grupės. Tai apima Šiaurės Korėjos kibernetinės žvalgybos grupę „Kimsuky”, Irano Revoliucinės gvardijos, Rusijos GRU karinę žvalgybos vienetą Fancy Bear ir Kinijos kibernetinės žvalgybos grupes Aquatic Panda ir Maverick Panda.

Generatyvinio DI potencialas padidinti kenksmingą socialinį inžineriją yra ypatingas susirūpinimas. Microsofto pranešime įspėjama, kad DI valdomi padirbinėti giliai (deepfake) ir balsų klonavimas gali reikšmingai pažeisti demokratinius procesus, ypač artėjant rinkimams daugiau nei 50 šalyse.

Nors OpenAI teigia, kad šiuo metu jos GPT-4 modelis turi ribotas galimybes kenksmingoms kibernetinėms užduotims, ekspertai tikisi, kad šioje srityje bus padaryti pažangos. Kritikai teigia, kad didelių kalbos modelių išleidimas be tinkamų saugos apgalvotumo buvo skubotas ir neatsakingas. Kai kurie kibernetinės saugos specialistai ragina Microsoft sutelkti dėmesį į didžiųjų kalbos modelių saugumą, o ne gynybines priemones prekiauti.

Kadangi grėsmės iš DI ir DIDA toliau evoliucionuoja, aišku, kad jie turi potencialą tapti galingais ginklais kiekvienos valstybės karininkų arsenale. Valstybėms ir technologijų įmonėms būtina teikti pirmenybę atsparių dirbtinių intelektinių sistemų plėtrai ir užtikrinti tvirtas gynybos strategijas, kurios apsaugotų nacionalinius interesus.

DUK:

1. Apie ką Microsoft pranešė dėl generatyvinio di generatyviuoju dirbtiniu intelektu tam tikrų šalių naudojimo?
Microsoft pranešė, kad tokioms šalims kaip Iranas, Šiaurės Korėja, Rusija ir Kinija naudojami Microsoft ir OpenAI sukurti DI įrankiai masiniams kibernetiniams užpuolimams prieš Jungtines Valstijas.

2. Kaip Microsoft ir OpenAI reagavo į šias grėsmes?
Microsoft ir OpenAI sugebėjo identifikuoti ir sustabdyti kai kuriuos šių grėsmių. Tačiau jie mano, kad svarbu viešai atskleisti šiuos ankstyvosios stadijos metodus.

3. Koks yra susirūpinimas dėl generatyvinio di naudojimo kenksmingoms kibernetinėms operacijoms?
Kibernetinės saugos ekspertai įspėja, kad generatyvinio di naudojimas kenksmingoms kibernetinėms operacijoms kelia didelę nacionalinės saugos grėsmę.

4. Kas yra didieji kalbos modeliai (LLM) ir kaip jie naudojami?
Didieji kalbos modeliai (LLM), PVZ., OpenAI „ChatGPT”, naudojami valstybių sąjungoms sustiprinti savo galimybes skverbiantis į tinklus ir vykdyti įtakos operacijas.

5. Kurioms grupėms dėl generatyvinio di buvo išjungtos paskyros ir ištekliai?
Microsofto pranešimas pabrėžė, kad buvo išjungtos paskyros ir ištekliai grupėms, tokoms kaip Šiaurės Korėjos „Kimsuky”, Irano Revoliucinės gvardijos, Rusijos GRU karinė žvalgybos vienetas Fancy Bear ir Kinijos Aquatic Panda ir Maverick Panda kibernetinės žvalgybos grupės.

6. Koks yra susirūpinimas dėl generatyvinio di ir kenksmingos socialinės inžinerijos?
Pranešime įspėjama, kad DI valdomi deepfake ir balsų klonavimas gali pažeisti demokratinius procesus, ypač artėjant rinkimams daugiau nei 50 šalyse.

7. Kokia yra kritikų nuomonė apie didelių kalbos modelių išleidimą?
Kritikai teigia, kad didelių kalbos modelių išleidimas be tinkamų saugos apgalvotumo buvo pernelyg skubotas ir neatsakingas. Jie ragina Microsoft sutelkti dėmesį į šių modelių saugumą.

8. Kokias prioritetines užduotis turėtų spręsti valstybės ir technologijų įmonės reaguodamos į kintančias DI ir LLM grėsmes?
Svarbu, kad valstybės ir technologijų įmonės teiktų pirmenybę atsparių dirbtinių intelektinių sistemų plėtrai bei nustatytų tvirtas gynybos strategijas, skirtas apsaugoti nacionalinius interesus.

Apibrėžimai:

– Generatyvinis dirbtinis intelektas (DI): Dirbtinio intelekto sistemų, galinčių generuoti naują turinį ar informaciją, pavyzdžiai, tokius kaip tekstas, vaizdai ar vaizdo įrašai.
– Didieji kalbos modeliai (LLM): Išsivysčiusios dirbtinės intelekto modelis, sugebančios suprasti ir generuoti žmogaus kalbai būdingą kalbą. OpenAI „ChatGPT“ yra vienas iš didelių kalbos modelių pavyzdžių.
– Kibernetinė žvalgyba: Skaitmeninių įrankių ir technikų naudojimas tam, kad kaupiamos žvalgybos ir informacijos iš įvairių asmenų, organizacijų ar valstybių.
– Demokratiniai procesai: Atsilieka į demokratinės sistemos veikimą atitinkančius principus ir mechanizmus, pvz., rinkimus ir sprendimų priėmimo procesus.

Susiję nuorodos:
– Microsoft
– OpenAI
– Kibernetinės saugos ir infrastruktūros agentūra

The source of the article is from the blog be3.sk

Privacy policy
Contact