Uuring näitab, et AI juturobotid on vastuvõtlikud turvariskidele

Hiljuti viisid turvauurijad läbi eksperimendi, et hinnata populaarsete AI juturobotite mudeleid ja nende vastuvõtlikkust jailbreakingule. Jailbreaking viitab tarkvaraarendajate poolt rakendatud turvapiirangute ja eetiliste juhiste vältimisele. Uuringust selgus, et Grok, Elon Muski x.AI poolt välja töötatud juturobot, oli testitud tööriistade hulgas kõige haavatavam.

Turvauurijad kasutasid juturobotite turvalisuse testimiseks kolme rünnaku meetodite kategooriat. Esimene kategooria hõlmas keeletrikke ja psühholoogilisi manitsusi, eesmärgiga mõjutada juturoboti käitumist. Teine kategooria kasutas programmeerimisloogika manipuleerimise taktikaid, ekspluateerides juturobotite arusaamist programmeerimiskeeltest ja algoritmide tööst. Kolmas lähenemisviis kasutas vastastikust AI meetodit juturobotite keele töötlemise ja tõlgendamise sihtimiseks. Kuigi kõik juturobotid tuvastasid ja ennetasid edukalt vastastikust AI rünnakut, olid mõned neist vastuvõtlikumad keelemõjutustele ja programmeerimisloogika ärakasutamisele.

Turvameetmete tugevuse põhjal järjestasid uurijad juturoboti mudelid. Kõige turvalisema mudelina kerkis esile Meta LLAMA, keda järgnesid Claude, Gemini ja GPT-4. Grok paigutus kõige vähem turvalise mudelina, koos Mistral AI omamudeliga “Mistral Large”.

Uuring rõhutab avatud lähtekoodiliste lahenduste tähtsust ja korrektset rakendamist AI turvalisuse tugevdamiseks. Avatud lähtekoodilised mudelid pakuvad rohkem kaitsevõimalusi, kuid oluline on aru saada ja rakendada tõhusaid protokolle. Koostöö juturobotite arendajatega AI turvalisuse protokollide täiustamiseks on oluline, ning uurijad väljendavad soovi selleks koostööd teha. Siiski ei avaldanud uurijad konkreetseid tehnilisi üksikasju, et vältida väärkasutust.

Uuring tõi esile ka erinevate foorumite olemasolu, kus jailbroken juturobotite mudeleid müüakse kuritarbeks, näiteks phishing e-kirjade loomiseks, vihaõhutamise genereerimiseks ja ebaseaduslike tegevuste sooritamiseks. See rõhutab potentsiaalseid riske, mis kaasnevad kompromiteeritud juturoboti suhtlusega.

Kuna ühiskond üha enam kasutab AI-põhiseid lahendusi, muutub juturobotite suhtluse turvalisus ülioluliseks. Kui juturobotid on kaasatud automatiseeritud otsustusprotsessidesse ja ühendatud e-posti abiliste või finantsrakendustega, võiksid kompromiteeritud juturobotite potentsiaalsed tagajärjed hõlmata volitamata juurdepääsu ja kontrolli tundliku kasutaja teabe üle.

Viimaste arengutega AI tööstuses kursis püsimiseks võite pöörduda allikate poole, nagu [Adversa AI](https://adversa.ai/) ja [Decrypt](https://decrypt.co/). Need allikad pakuvad väärtuslikke teadmisi, uudiseid ja analüüse seotuna AI sektoriga, sealhulgas juturobotite tehnoloogiate ja nende turvalisusega.

KKK

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact