US National Institute of Standards and Technology įveda strategijas kovai su dirbtinio intelekto cyber-grėsmėmis

JAV Nacionalinis standartų ir technologijos institutas (NIST) imasi žingsnių siekdamas kovoti su dirbtinio intelekto valdomų pokalbių botų ir savarankiškai vairuojamų automobilių kibernetinėmis grėsmėmis. Neseniai, sausio 4 dieną, NIST paskelbė straipsnį, kuriame aprašoma standartizuota dirbtinio intelekto (DI) kibernetinių atakų charakterizavimo ir gynybos metodika.

Straipsnis pavadinimu „Priešiška mašininė mokymosi urlaščiomis: Pogrupiavimas ir terminologija apie atakas ir jų mažinimo būdus” buvo parengtas NIST, moksline bendruomene ir pramonės bendrovėmis. Jo tikslas buvo dokumentuoti įvairias priešiškas mašininio mokymosi (PM) atakas ir pasiūlyti šių atakų mažinimo technikas.

NIST pateikė PM atakas apibendrinančią klasifikaciją, suskirstydama jas į dvi grupes: atakos, kurios taikomos „prognoziniam DI”, ir atakos, kurios taikomos „kūro DI”. „Prognozinis DI” apima AI ir mašininio mokymosi sistemas, kurios prognozuoja elgesį ir reiškinius, tokias kaip kompiuterinės regos priemonės ir savarankiškai vairuojami automobiliai. „Kūris DI” yra prognozinio DI poaibis, į kurį įeina urlaštinis priešaspiracinis tinklas, urlaštinis saugiklis, ir difuzijos modeliai.

Straipsnyje pabrėžiamos užgauliojimo, nuodijimo ir privatumo atakos kaip pagrindinės atakos prieš prognozinio DI sistemas. Užgauliojimo atakos siekia sukurti urlaštinės pavyzdžius, kurie minimaliai pakitina mokymo pavyzdžių klasifikaciją. Nuodijimo atakos vyksta mokymo algoritmo etape, o privatumo atakos siekia įgyti jautrią informaciją ir ją piktnaudžiauti.

Tuo tarpu atakos, kurios taikomos kūrio DI sistemoms, klasifikuojamos kaip piktnaudžiavimo atakos ir apima netikrų informacijos įterpimą į teisėtus šaltinius, kad apgautų dirbtinį intelektą. Piktnaudžiavimo atakų pavyzdžiai apima dirbtinio intelekto tiekimo grandinės atakas, tiesioginį įjungimo įvadų įterpimo atakas ir netiesioginio įjungimo ivadų įterpimo atakas.

Straipsnyje pateikiamos mažinimo technikos kiekvienai atakų kategorijai, tačiau NIST pripažįsta, kad šios strategijos vis dar yra nepakankamos. Didelė būtinybė yra turėti tvirtesnes gynybos priemones prieš dirbtinio intelekto pažeidžiamumus, nes katastrofiški gedimai gali atsirasti su rimtomis pasekmėmis.

NIST pastangos atitinka JAV vyriausybės dėmesį kurti patikimą dirbtinį intelektą. Šis straipsnis palaiko NIST dirbtinio intelekto rizikos valdymo struktūros įgyvendinimą, kuri buvo paskelbta 2023 m. sausį. Be to, JAV dirbtinio intelekto saugumo instituto įkūrimas NIST siekia nustatyti dirbtinio intelekto saugumo, apsaugos ir testavimo standartus, taip pat sukurti aplinką, kurioje mokslininkai galėtų spręsti iškilusius dirbtinio intelekto rizikos klausimus.

Bendrai, NIST revoliucingu darbu, kuriant strategijas kovoti su dirbtinio intelekto kibernetinėmis grėsmėmis, demonstruoja jų įsipareigojimą užtikrinti dirbtinio intelekto sistemų saugumą ir patikimumą šiandieninėje technologijų pasaulyje.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact