Prihajajoča raziskava opozarja na pomembne varnostne tveganja pri prediktivnih in generativnih sistemih umetne inteligence

Nova raziskava na področju umetne inteligence (UI) opozarja, da so prediktivni in generativni sistemi UI ranljivi za različne vrste napadov, nasprotujoč trditvam o njihovi varnosti. Apostol Vassilev, računalniški znanstvenik z ameriškega Nacionalnega inštituta za standarde in tehnologijo (NIST), poudarja, da ostajajo kljub napredku na področju UI in strojnega učenja pomembni varnostni izzivi. Vassilev je soavtor znanstvenega članka z naslovom “Adverzalno strojno učenje: taksonomija in terminologija napadov in omilitvenih ukrepov”, skupaj z raziskovalci z Univerze Northeastern in varnostno trgovino Robust Intelligence. Članek raziskuje varnostna tveganja, povezana z UI sistemi, in se osredotoča na napade izogibanja, zastrupljanja, zasebnosti in zlorabe.

Napadi izogibanja si prizadevajo ustvariti adverzalne primere, ki lahko manipulirajo z razvrščanjem algoritmov UI z minimalnimi spremembami. Takšni napadi segajo že v leto 1988 in lahko povzročijo nevarne napačne razvrstitve, kot na primer napačno identifikacijo ustavljalnih znakov pri avtonomnih vozilih. Napadi zastrupljanja pa vključujejo vnašanje nezaželenih podatkov v modele strojnega učenja med usposabljanjem, kar vodi v nezaželene odzive ob prejemu določenih vhodov. Napadi na zasebnost pa vključujejo rekonstrukcijo usposabljalnih podatkov, do katerih ne bi smelo biti dostopa, izvlečenje zapomnjenih podatkov in sklepanje o zaščitenih informacijah.

Napadi zlorabe pa izkoriščajo generativne sisteme UI za zlonamerne namene, kot so spodbujanje sovražnega govora, ustvarjanje medijskih vsebin, ki spodbujajo nasilje, ali olajšanje kibernetskih napadov. Raziskovalci v članku si prizadevajo zagotoviti razumevanje teh vrst napadov in njihovih variant ter predlagati metode omilitve za izboljšanje obrambe sistemov UI. Poudarjajo, da trenutno obstaja kompromis med varnostjo in poštenostjo ter natančnostjo pri optimizaciji sistemov UI.

Ta raziskava služi kot pomembno opozorilo, da varnostne ranljivosti sistemov umetne inteligence ne smemo prezreti. Ko tehnologije UI še naprej napredujejo, postaja naslavljanje teh varnostnih skrbi ključno za preprečevanje morebitnih katastrofalnih posledic.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact