Ver merksame på falske påstandar om AI-sikkerheit, åtvarar NIST

Det amerikanske nasjonale instituttet for standardar og teknologi (NIST) har kome med ei åtvaring mot å stole på påstandar frå leverandørar om sikkerheita til kunstig intelligens (AI) system. I ei nyleg publisert rapport fremhevar NIST mangelen på ufeilbarlege forsvarsmekanismer tilgjengeleg for AI-utviklarar. Instituttet understrekar at dersom eit AI-program samhandlar med nettstader eller allmennheita, kan det enkelt bli manipulert av angriparar som fôrar det med falske data. Rapporten advarar mot kraftige samtidige angrep på ulike måtar å samhandle med AI, som til dømes bilete, tekst, tale og tabellar. NIST legg vekt på sårbarheita til moderne AI-system, særleg gjennom offentlege API-ar (applikasjonsprogramgrensesnitt) og plattformer for implementering.

I si taksonomi av AI-angrep og mottiltak identifiserte NIST fire hovudtypar angrep: unnvikelse, forgiftning, personvern og misbruk. Unnvikelse handlar om å manipulere inndata til ein AI-modell for å endre oppførselen, noko som kunne føre til feilaktige tolkingar av autonome køyretøy, for eksempel. Forgiftingangrep skjer under treningsfasen til ein AI-modell, der angriparar legg inn upassande språk for å påverke modellens responsar. Personvernsangrep forsøker å trekke ut privat informasjon frå AI-modellar, medan misbrukangrep har som mål å villeie AI-system med feilaktig informasjon.

Medforfattar Alina Oprea, professor ved Northeastern University, framhevar den relative enkelt utføringa av desse angrepa, og påpeiker at forgiftingangrep til dømes kan utførast med berre nokre dusin manipulerte treningsprøver. Dette skaper bekymringar om sikkerheita til AI-system og understrekar behovet for meir robuste forsvar for å beskytte mot potensielle truslar.

NIST-rapporten er ein verdifull ressurs for både AI-utviklarar og brukarar, og oppmodar til å vera på vakt når det kjem til påstanden om ufeilbare AI-sikkerheit. I takt med at AI-feltet held på å utvide seg, er det avgjerande å prioritere utviklinga av effektive sikkerheitstiltak for å sikre mot potensielle angrep og sikre integriteten til AI-system.

The source of the article is from the blog elblog.pl

Privacy policy
Contact