Avertizare cu privire la Revendicările False despre Securitatea AI, Avertizează NIST

Institutul Național pentru Standarde și Tehnologie al Statelor Unite (NIST) a emis o avertizare cu privire la încrederea în revendicările furnizorilor referitoare la securitatea sistemelor de inteligență artificială (AI). Într-o publicație recentă, NIST a evidențiat lipsa unor mecanisme de apărare infailibile disponibile dezvoltatorilor de AI. Institutul a subliniat că dacă un program AI interacționează cu site-uri web sau publicul, acesta poate fi ușor manipulat de atacatori care îi furnizează date false. Raportul a atras atenția asupra atacurilor puternice simultane în diverse moduri de interacțiune AI, cum ar fi imagini, text, vorbire și date tabulare. NIST a subliniat vulnerabilitatea sistemelor moderne de AI, în special prin API-urile publice și platformele lor de implementare.

În taxonomia sa a atacurilor AI și a mitigărilor acestora, NIST a identificat patru tipuri principale de atacuri: evaziune, otrăvire, confidențialitate și abuz. Evaziunea implică manipularea introducerilor la un model AI pentru a-i schimba comportamentul, ceea ce ar putea duce, de exemplu, la interpretări incorecte de către vehicule autonome. Atacurile de otrăvire apar în timpul fazei de instruire a unui model AI, unde atacatorii inserează limbaj nepotrivit pentru a influența răspunsurile modelului. Atacurile de confidențialitate încearcă să extragă informații private din modelele AI, în timp ce atacurile de abuz au ca scop inducerea în eroare a sistemelor AI cu informații incorecte.

Co-autorul Alina Oprea, profesor la Northeastern University, a evidențiat executarea relativ ușoară a acestor atacuri, menționând că atacurile de otrăvire, de exemplu, pot fi lansate cu doar câteva zeci de exemple de instruire manipulate. Aceasta ridică îngrijorări cu privire la securitatea sistemelor AI și evidențiază necesitatea unor apărări mai puternice pentru a proteja împotriva amenințărilor potențiale.

Raportul NIST servește ca o resursă valoroasă atât pentru dezvoltatorii de AI, cât și pentru utilizatori, îndemnând la prudență în ceea ce privește afirmațiile de securitate infailibilă a AI. Pe măsură ce domeniul AI continuă să se extindă, este crucial să se acorde prioritate dezvoltării de măsuri de securitate eficiente pentru a proteja împotriva atacurilor potențiale și pentru a asigura integritatea sistemelor AI.

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact