Upozorenje novog istraživanja: Prediktivni i generativni AI sustavi suočeni su s ozbiljnim sigurnosnim rizicima

Novo istraživanje u području umjetne inteligencije (AI) upozorava da su prediktivni i generativni AI sustavi ranjivi na razne napade, suprotstavljajući se tvrdnjama da su ove tehnologije sigurne. Apostol Vassilev, računalni znanstvenik iz Američkog nacionalnog instituta za standarde i tehnologiju (NIST), ističe da unatoč napretku u AI i strojnom učenju, postoje značajni sigurnosni izazovi. Vassilev je suautor rada pod nazivom “Adverzalno strojno učenje: taksonomija napada i ublažavanje” zajedno s istraživačima iz Sveučilišta Northeastern i sigurnosne trgovine Robust Intelligence. Rad istražuje sigurnosne rizike povezane s AI sustavima, obraćajući pažnju na napade na izbjegavanje, trovanje, privatnost i zloupotrebu.

Napadi na izbjegavanje imaju za cilj generiranje adverzalnih primjera koji mogu manipulirati klasifikacijom AI algoritama s minimalnim poremećajem. Takvi napadi se mogu pratiti sve do istraživanja provedenog 1988. godine i mogu rezultirati opasnim pogrešnim klasifikacijama, poput krivog identifikacije znakova zaustavljanja u autonomnim vozilima. S druge strane, napadi na trovanje uključuju ubacivanje neželjenih podataka u modele strojnog učenja tijekom obuke, što dovodi do neželjenih odgovora prilikom primanja određenih ulaza. Napadi na privatnost uključuju rekonstrukciju obučnih podataka koji bi trebali biti nedostupni, izvlačenje zapamćenih podataka i zaključivanje zaštićenih informacija.

Naposljetku, napadi na zloupotrebu koriste generativne AI sustave u zlonamjerne svrhe, poput poticanja govora mržnje, generiranja medija koji potiče nasilje ili olakšavanja cyber napada. Istraživači koji stoje iza rada imaju cilj pružiti razumijevanje ovih kategorija i varijacija napada, kao i predložiti metode ublažavanja kako bi se poboljšale obrane AI sustava. Naglašavaju da trenutno postoji kompromis između sigurnosti i pravednosti te točnosti u optimizaciji AI sustava.

Ovo istraživanje služi kao važan podsjetnik da se sigurnosne ranjivosti AI sustava ne mogu zanemariti. S razvojem AI tehnologija, važno je adresirati ove sigurnosne brige kako bi se spriječile potencijalno katastrofalne posljedice.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact