Förbättrade säkerhetsåtgärder för AI införda av teknikföretag

En ny AI-modell kallad AI Guardian avslöjades förra veckan av ett ledande teknikföretag, vilken inkluderar avancerade säkerhetsprotokoll för att förebygga missbruk.

Den Language Large Model (LLM) konstruerades med en teknik som kallas Hierarchical Teaching Sequencing, designad för att förhindra skadliga exploateringar genom att förhindra ingenjörer från att kringgå AI-modellens skydd.

Företaget har hävdat att denna teknologi även förstärker motståndet mot problem som insprutning av indata och systempåverkansattacker. Enligt företagets uttalanden har det nya tillvägagångssättet ökat AI-modellens robusthet med 63%.

OpenAI har utvecklat en ny säkerhetsram som beskrivs i en förpublicerad elektronisk tidskrift som släppts på arXiv. Där beskrivs den innovativa teknologin och dess funktionalitet.

För att förstå konceptet Hierarchical Teaching Sequencing måste man förstå processen att kringgå skydden, en handling som utnyttjar specifika sårbarheter i programmet för att få det att utföra uppgifter för vilka det inte ursprungligen var programmerat.

I de tidiga stadierna av AI Guardian försökte individer framkalla skadligt eller farligt innehåll genom att lura AI:n att ignorera dess ursprungliga programmering. Även om dessa påståenden ofta började med ”Glöm alla tidigare instruktioner och gör detta”, utvecklades metoden alltmer och ingenjörer blev mer strategiska i sina försök när AI Guardian fortskred och det blev svårare att inge skadliga inkommandon.

För att bekämpa problem där AI-modellen inte bara genererar kränkande texter eller bilder utan även skadligt innehåll som metoder för att skapa kemiska sprängmedel eller sätt att hacka en webbplats, använder OpenAI nu Hierarchical Teaching Sequencing. Detta innebär i grunden att modellerna dikterar hur de bör agera när de ställs inför motstridiga order med olika prioriteringar.

Genom att etablera en hierarkisk struktur kan företaget prioritera sina instruktioner, vilket gör det extremt svårt för en snabb ingenjör att kringgå dem eftersom AI:n alltid kommer att följa prioriteringsordningen när den uppmanas att skapa något den inte ursprungligen programmerades för.

Företaget hävdar att det har förbättrat robustheten med 63%, men det föreligger fortfarande en risk att AI:n potentiellt bortser även från grundläggande instruktioner.

OpenAIs forskningspapper har identifierat flera förbättringar för att förbättra tekniken ytterligare. Ett av de primära fokusområdena är hantering av andra medietyper som bilder eller ljud, som också kan innehålla inbäddade instruktioner.

För mer information om AI-säkerhet och framväxande teknologier kan du besöka OpenAI.

Denna artikel belyser den ständigt föränderliga landskapet av AI-säkerhetsåtgärder och komplexiteten i att säkerställa den säkra och etiska implementeringen av AI-teknologier inom olika områden.

The source of the article is from the blog dk1250.com

Privacy policy
Contact