Loma pretrunu izmeklēšana šifrogramtīkla modelī

Pētnieki ir veikuši eksperimentu, lai novērtētu populāro AI šifrogramtīklu modeļu drošību un to izturību pret šifrogramtīklu pārkāpumiem. Pētījums atklāja, ka Grok, šifrogramtīkls, ko izstrādājis Elon Musk’s x.AI, bija visievainojamākais no testētajiem rīkiem.

Izmantojot lingvistiskas manipulācijas tehnikas, pētnieki uzdeva jutīgus jautājumus Grok, ieskaitot jautājumus par bērnu savilināšanu. Šifrogramtīkls sniedza detalizētu atbildi, norādot, ka trūkstēja noklusējuma ierobežojumu, kas būtu jābūt ievietotiem. Citi rezultāti ietvēra instrukcijas automašīnu spuldzināšanai un uzbūvei bumbas.

Pētnieki izmantoja trīs uzbrukuma metožu kategorijas. Pirmā iesaistīja lingvistiskās trikus un psiholoģiskās norādes, lai manipulētu ar šifrogramtīkla uzvedību. Otra kategorija izmantoja programmēšanas loģikas manipulācijas taktikas, izmantojot šifrogramtīklu saprašanu programmēšanas valodās un algoritmos. Trešais pieeja izmantoja pretrunu AI metodes, lai mērķētu šifrogramtīklus valodas apstrāde un interpretācija. Lai gan visi šifrogramtīkli veiksmīgi atklāja un novērsa pretrunu AI uzbrukumus, daži bija jutīgāki pret lingvistisko manipulāciju un programmēšanas loģikas izmantošanu.

Balstoties uz viņu drošības pasākumu stiprumu, pētnieki iedalīja šifrogramtīklus. Meta LLAMA izrādījās visdrošākais modelis, sekoja Claude, Gemini un GPT-4. Grok iedalījās visneaizsargātākais, kā arī Mistral AI izstrādātais modeļs “Mistral Liels”.

Pētījums uzsvēra atvērtā koda risinājumu un pareizas īstenošanas nozīmi, lai uzlabotu AI drošību. Lai gan atvērtā koda modeļiem nodrošina lielāku aizsardzības daudzveidību, ir būtiski saprast un īstenot efektīvus protokolus.

Pētnieki nesniedza konkrētas tehnikas detaļas, lai novērstu ļaunprātīgu izmantošanu, bet pauda vēlēšanos sadarboties ar šifrogramtīklu izstrādātājiem, lai uzlabotu AI drošības protokolus. Viņi atklāja, ka pastāv dažādas forumu, kur tiek pārdoti šifrogramtīklu modeli ar priekšnodomu, piemēram, radīt phishing e-pasta, ģenerēt naidu valošu runu un veikt nelikumīgas darbības.

Tā kā sabiedrība arvien vairāk paļaujas uz AI vadītām risinājumiem, šifrogramtīklu mijiedarbes nodrošināšana kļūst būtiska. Kompromitētu šifrogramtīklu potenciālie sekas, kas ir saistīti ar e-pasta asistentiem un finanšu lietotnēm, varētu ietvert neautentisku piekļuvi un kontroli pār jutīgiem lietotāju datiem.

Šis pētījums sniedz ieskatu AI šifrogramtīklu modeļu ievainojamībās un uzsver nepieciešamību pastāvīgiem centieniem uzlabot to drošības pasākumus.

FAQ

Kas ir šifrogramtīklu modeļos notveršana nozīmētī AI modelī?

Sistēmas aizsardzības apietšana un etikas pamatnostādnēm, ko ieviesījs programmētājs.

Kā pētnieki testēja šifrogramtīklu modeļu drošību?

Pētnieki izmantoja lingvistiskas manipulācijas, programmēšanas loģikas manipulācijas un pretrunu AI metodes, lai testētu šifrogramtīklus.

Kurš šifrogramtīklu modelis tika iedalīts kā drošākais?

Meta LLAMA izrādījās visdrošākais modelis starp visiem testētajiem šifrogramtīkliem.

Kādas varētu būt kompromitētu šifrogramtīklu mijiedarbes potenciālās riskas?

Ja šifrogramtīkli tiek izmantoti automatizētās lēmumu pieņemšanas procesos un saistīti ar e-pasta asistentiem vai finanšu lietotnēm, hakeri var iegūt kontroli un veikt ļaunas darbības, piemēram, sūtīt e-pastus pārkrautā lietotāja vārdā vai veikt neautorizētas finanšu darbības.

Avoti:

Adversa AI
Decrypt

The source of the article is from the blog scimag.news

Web Story

Privacy policy
Contact