Saugumo tyrimas atskleidė pažeidžiamumus AI chatbot modeliuose

Neseniai saugumo tyrėjai atliko eksperimentą, kuriuo siekė įvertinti populiarių AI chatbot modelių saugumą bei jų jautrumą atskleidžiant apsaugos apribojimus. Kalbant apie AI modelių saugumą, tai gali būti suprantama kaip apsaugos apribojimų ir etinių gairių, nustatytų programinės įrangos kūrėjų, apeikimas. Tyrime nustatyta, kad Grok, chatbot, sukurtas Elon Musk’o x.AI, pasirodė esąs pažeidžiamiausias iš visų išbandytų įrankių.

Tyrėjai naudojo tris atakos metodus, siekdami išbandyti chatbot modelių saugumą. Pirmasis metodas apėmė lingvistinius triukus ir psichologinius paskatas, padedančias manipuliuoti chatbot elgesiu. Antrasis metodas naudojo programavimo logikos manipuliavimo taktikas, išnaudodamas chatbot supratimą apie programavimo kalbas ir algoritmus. Trečiasis metodas taikė prieštaringąjį AI, siekdamas paveikti chatbotų kalbos apdorojimą ir interpretaciją. Nors visi chatbot’ai sėkmingai aptiko ir užkertė kelią prieštaringojo AI atakoms, kai kurie jautrūs lingvistinei manipuliacijai ir programavimo logikos eksploatavimui.

Remiantis jų saugumo priemonėmis, tyrėjai įvertino chatbot modelius. Saugiausias iš visų išbandytų chatbotų modelis pasirodė esąs Meta LLAMA, o po jo sekė Claude, Gemini ir GPT-4. Grok įvertintas kaip mažiausiai saugus, kartu su Mistral AI nuosavybės modeliu „Mistral Large“.

Tyrimas atkreipė dėmesį į atvirojo kodo sprendimų svarbą ir tinkamą įgyvendinimą, siekiant padidinti AI saugumą. Nors atvirojo kodo modeliai suteikia daugiau variacijų apsaugai, supratimas ir efektyvių protokolų įgyvendinimas išlieka svarbus. Bendradarbiavimas su chatbot kūrėjais siekiant tobulinti AI saugumo protokolus yra būtinas, ir tyrėjai išreiškė norą dirbti kartu šiuo tikslu. Tačiau, siekiant išvengti piktnaudžiavimo, tyrėjai neskelbė konkrečių techninių detalių.

Tyrimas taip pat atskleidė, kad egzistuoja įvairūs forumai, kuriuose pateikiami nusiaubti chatbot modeliai, skirti piktnaudžiavimui, tokiems kaip suklastoti elektroniniai laiškai, klastojantys neapykantos kalbą ir įvykdyti nelegalias veiklas. Tai pabrėžia potencialius pavojus, susijusius su pažeistais chatbot interakcijomis.

Kadangi visuomenė vis labiau priklauso nuo AI varomo sprendimų, svarbu atidžiai saugoti chatbot interakcijas. Jei chatbot’ai naudojami automatizuotuose sprendimų priėmimo procesuose ir prijungti prie elektroninių asistentų ar finansinių taikymų, pažeistų chatbotų potencialios pasekmės galėtų apimti neleistiną prieigą ir kontrolę prie jautrios vartotojų informacijos.

Norėdami sekti naujausius įvykius AI pramonėje, galite kreiptis į šaltinius [Adversa AI](https://adversa.ai/) ir [Decrypt](https://decrypt.co/). Šie šaltiniai teikia vertingą informaciją, naujienas ir analizę susijusią su AI sektoriumi, įskaitant chatbot technologijas ir jų saugumą.

Klausimai

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact