Hackeriai iš viso pasaulio naudoja dirbtinį intelektą (AI) stiprinti savo kibernetinius puolimus

Neseniai Microsoft ir OpenAI pateikė ataskaitą, kuri atskleidė, kad kinų, Irano, Šiaurės Korėjos ir Rusijos žmonių grupės, susijusios su kibernetiniu nusikaltėlių tinklu, vislabiau naudoja didelių kalbos modelių (LLMs) dirbtinį intelektą, kad padidintų savo kibernetinių puolimų veiksmingumą. Šios valstybinės grupės naudoja AI technologiją, norėdamos geriau suprasti įvairias sritis, nuo satelitų technologijos iki piktnaudžiavimo taikomosios programinės įrangos, kuri gali apeiti saugumo programas.

Vienodai išimant tiesioginius ataskaitos citatus, galima apibendrinti, kad šios žmonių grupės aktyviai tyrinėja ir testuoja AI technologijas, norėdamos įvertinti jų potencialų vertę savo veikloje ir nustatyti saugumo priemones, kurias gali prireikti įveikti.

Microsoft ir OpenAI labiau identifikavo keturias grupes: Rusijos „Forest Blizzard” (Strontium), Šiaurės Korėjos „Emerald Sheet” (Thallium), Irano „Crimson Sandstorm” (Curium) ir Kinijos „Charcoal Typhoon” (Chromium) bei „Salmon Typhoon” (Sodium). Šios grupės įtraukia didelius kalbos modelius į savo kibernetinius puolimus, siekdamos gauti žvalgybos duomenis ir tobulinti savo kibernetinius strategijas.

Pavyzdžiui, Rusijos hakerys naudoja LLM’us, kad suprastų satelitų galimybes ir radarų technologijas, taip pat ieško pagalbos scenarijų kūrimo ir failų manipuliavimo užduotims. Šiaurės Korėjos „Emerald Sheet” naudoja AI modelius, kad išnaudotų viešojo portalo programinės įrangos spragas ir gerintų socialinio inžinieriaus technikas, tokius kaip „phishing” ir „spear-phishing” kampanijos. Irano „Crimson Sandstorm” naudoja LLM’us, kad būtų tiksliau vykdomos „spear-phishing” operacijos, kūrimui ir antivirusinės programinės įrangos apeinimui.

Panašiai Kinijos „Charcoal Typhoon” ir „Salmon Typhoon” naudoja didelius kalbos modelius įvairiais tikslais, tokius kaip kibernetinių užduočių optimizavimas, vertimas, kodo klaidų nustatymas ir net potencialiai kenksmingo kodo kūrimas.

Svarbu pabrėžti, kad Microsoft ir OpenAI imasi proaktyvių veiksmų ir išjungia su šiomis žmonių grupėmis susijusius paskyras ir turtą. Nors iki šiol nebuvo identifikuoti jokie dideli kibernetiniai puolimai, naudojant LLM’us, tai, kad hakerys domisi AI technologijos išnaudojimu, nenuostabu.

Kadangi organizacijos nuolat siekia sukurti veiksmingesnes strategijas, skirtas įsibrauti į tinklus, AI ir LLM’us jie naudoja kaip naujausius įrankius savo arsenale. Kibernetinio saugumo specialistams yra labai svarbu būti budriems ir išlikti žingsnį prieš šiuos besikeičiančius pavojus.

Microsoft, pastebimas šioje srityje, patyrė keletą savo visų pirma buvusių atakų, įskaitant neseniai įvykusį incidentą, kai Rusijos „Midnight Blizzard” (Nobelium) neturėdamas tinkamų įgaliojimų prieigą gavo vyresnių vadovų paskyras ir pavogė jautrius el. laiškus bei dokumentus.

Kibernetinio kraštovaizdžio tobulėjant yra būtina, kad organizacijos ir žmonės teiktų pirmenybę kibernetinei saugumui, būtų informuoti apie naujausią pažangą ir potencialius grėsmes, kurios kyla iš AI ir hakerių pasaulio.

DUK:

K: Ką atskleidė naujas Microsoft ir OpenAI pranešimas?
A: Pranešimas atskleidė, kad kinų, Irano, Šiaurės Korėjos ir Rusijos žmonių grupės, susijusios su kibernetiniu nusikaltėlių tinklu, vis labiau naudoja didelių kalbos modelius (LLMs) dirbtinį intelektą siekdamos padidinti savo kibernetinių puolimų veiksmingumą.

K: Kaip valstybinės žmonių grupės naudoja AI technologiją?
A: Šios grupės naudoja AI technologiją, norėdamos geriau suprasti įvairias sritis, tokią kaip satelitų technologija, ir kurti piktnaudžiavimą apsaugos programine įranga.

The source of the article is from the blog elektrischnederland.nl

Privacy policy
Contact