Naujas pranešimas pateikia įžvalgas apie dirbtinio intelekto sistemų saugumą

Naujausias Nacionalinio standartų ir technologijų instituto (NIST) pranešimas atskleidžia potencialius atakos būdus, kurie gali pavojingai paveikti dirbtinio intelekto (DI) sistemas, kartu siūlydamas strategijas šiems rizikoms mažinti. Pranešime, pavadinimu „Prieštaraujanti mašininis mokymas: atakų ir rizikos mažinimo taksonomija bei terminologija“, pabrėžiamos įvairios atakų rūšys, įskaitant vengimą, užteršimą, privatumo pažeidimus ir piktnaudžiavimą. NIST šias atakas kategorizuoja pagal puolėjo žinias, tikslus, užmojį ir gebėjimus.

Pasak vienos pranešimo bendrųjų autorės Alinos Opreos, daugelis šių atakų gali būti lengvai įgyvendinamos su minimaliomis žiniomis apie DI sistemą ir ribotomis prieštaraujamosios veiklos galimybėmis. Pavyzdžiui, užteršimo atakos gali būti įvykdomos keletą dešimčių treniravimo pavyzdžių manipuliavimu, kurie sudaro nedidelę dalį viso treniravimo rinkinio.

Mažinant rizikas, susijusias su užteršimo atakomis, pranešime siūlomi keletas požiūrių. Tai apima duomenų valymą, mašininio mokymo treniravimo algoritmo modifikavimą ir patikimus treniravimo metodus, o ne tradicinius treniravimo protokolus. Taikydami šias strategijas, DI sistemų kūrėjai ir naudotojai gali ženkliai padidinti savo programų saugumą ir patikimumą.

Šio pranešimo išleidimas yra dalis NIST pastangų skatinti patikimų DI sistemų plėtrą. Svarbu spręsti potencialias pažeidžiamybes DI sistemose, kad užtikrintume jų veiksmingumą ir vientisumą įvairiose srityse.

Norint sužinoti daugiau apie naujausius DI pažangius ir iššūkius, verslo lyderiai ir federaliniai pareigūnai gali registruotis Potomakio pareigūnų užklubo 5-ojoje metinėje dirbtinio intelekto viršūnėje, kuri vyks kovo 21 dieną. Viršūnė suteiks platformą prasmingoms diskusijoms apie naujausias plėtros ir geriausias praktikas, susijusias su DI sistemų saugumu.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact