Varnar NIST för falska påståenden om AI-säkerhet

USA:s National Institute for Standards and Technology (NIST) har utfärdat en varning om att inte lita på leverantörernas påståenden om säkerheten hos artificiell intelligens (AI)-system. I en nyligen publicerad rapport betonade NIST bristen på heltäckande försvarsmekanismer som är tillgängliga för AI-utvecklare. Institutet betonade att om ett AI-program interagerar med webbsidor eller allmänheten kan det enkelt manipuleras av angripare som matar det med falska data. Rapporten varnar för kraftfulla simultana attacker över olika former av AI-interaktion, som bilder, text, tal och tabulära data. NIST betonade sårbarheten hos moderna AI-system, särskilt genom allmänna API:er och deras implementeringsplattformar.

I sin taxonomi över AI-attacker och åtgärder identifierade NIST fyra huvudtyper av attacker: undvikande, förgiftning, integritetsintrång och missbruk. Undvikande innebär att manipulera inmatningen till en AI-modell för att ändra dess beteende, vilket kan leda till felaktiga tolkningar av exempelvis självkörande fordon. Förgiftning attacker inträffar under träningsskedet för en AI-modell, där angripare infogar olämpligt språk för att påverka modellens svar. Integritetsintrångsförsök syftar till att extrahera privat information från AI-modeller, medan missbruksattacker syftar till att vilseleda AI-system med felaktig information.

Medförfattaren Alina Oprea, professor vid Northeastern University, framhöll att dessa attacker kan utföras relativt enkelt och påpekade att förgiftning attacker till exempel kan utföras med bara ett tiotal manipulerade träningsprover. Detta väcker oro för säkerheten hos AI-system och understryker behovet av mer robusta försvar för att skydda mot potentiella hot.

NIST-rapporten fungerar som en värdefull resurs både för AI-utvecklare och användare genom att uppmana till försiktighet när det gäller påståenden om ofelbar AI-säkerhet. I takt med att AI-fältet fortsätter att expandera är det avgörande att prioritera utvecklingen av effektiva säkerhetsåtgärder för att skydda mot potentiella attacker och säkerställa integriteten hos AI-systemen.

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact