Uurimus: Andmete kõrvakanalirünnakud AI-vestlusrobotite vastu: Oluline, mida teadma

Kunstliku intelligentsuse (AI) vestlusrobotid on muutunud üha populaarsemaks, pakkudes kasutajatele kiireid ja mugavaid vastuseid nende päringutele. Siiski on Ben-Gurioni ülikooli Iisraeli teadlaste hiljutine avastus toonud päevavalgele AI vestlusrobotite vestluses murettekitava haavatavuse. Häkkerid saavad seda haavatavust ära kasutada, et luurata privaatvestluste peale ja võimalikult ligi pääseda tundlikele andmetele.

Küsimusel olev haavatavus on tuntud kui “kõrvakanalirünnak”. Erinevalt traditsioonilistest häkkimisviisidest, mis hõlmavad turvafiltrite murdmist, tuginevad kõrvakanalirünnakud andmete passiivsele edastamisele kasutades metaandmeid või muid kaudseid väljundeid. Seda tüüpi rünnakut saavad sooritada pahatahtlikud tegijad samal võrgul või isegi keegi internetis, kes võib jälgida liiklust.

Mis muudab AI vestlusroboteid eriti vastuvõtlikuks kõrvakanalirünnakutele, on nende krüpteerimispraktikad. Kuigi AI arendajad, näiteks OpenAI, kasutavad krüptimist vestlusrobootide liikluse kaitsmiseks, viitab Ben-Gurioni ülikooli meeskonna läbiviidud uuring sellele, et kasutatavad krüptimismeetodid on puudulikud. Tulemusena võivad privaatsõnumite sisu, mida vahetatakse AI vestlusrobotitega, paljastuda potentsiaalsetele pealtkuulajatele.

Kasutades ära seda haavatavust, saavad ründajad umbkaudselt välja selgitada AI vestlusrobotitele antud käskude sisu olulise täpsusega. Teadlased avastasid, et tundlikud küsimused, mis AI vestlusrobotitele esitati, võisid pahatahtlikel tegijatel tuvastada umbes 55-protsendilise täpsusega. See seab tõsise ohu kasutaja privaatsusele ja turvalisusele.

Tähtis on märkida, et see haavatavus ulatub kaugemale OpenAI-st. Uuringute kohaselt on turul olevad enamus vestlusrobotid, välja arvatud Google’i Gemini, haavatavad selliste rünnakute suhtes. Probleem seisneb kooditud andmete, mida tuntakse kui “tokenid”, kasutamises vestlusrobotite poolt sujuva vestluse voolu hõlbustamiseks. Kuigi kohaletoimetamise protsess on üldiselt krüpteeritud, loovad tokenid ise kõrvalkanali, mille kaudu ründajad saavad ligi pääseda ja välja selgitada vestlusrobotile antud käske.

Kasutamaks ära seda haavatavust, kasutasid Ben-Gurioni teadlased kõrvakanalilt hankitud toorteid ja õpetasid keele mudeli, et tuvastada käsudega seotud võtmesõnu. Tulemused olid hoiatavad, keelemudel suutis üldiseid käske umbes 50 protsendil juhtudest täpselt välja selgitada ja ennustada neid märkimisväärselt täpselt 29 protsendil juhtudest.

Selle haavatavuse tagajärjed on sügavalt murettekitavad, eriti tundlike teemade nagu abort või LGBTQ küsimuste kontekstis. Need teemad seisavad suureneva kuritegelikustamise ees, nii et isikud, kes otsivad teavet või tuge AI vestlusrobotite kaudu, võivad end ohtu või karistustes ilma tahtmata panna.

Microsoft, mis omab OpenAI ja Copilot AI-d, on tunnistanud haavatavust. Siiski nad kinnitavad kasutajatele, et isiklikke andmeid, nagu nimed, on ebatõenäoline ennustada. Microsoft on pühendunud selle küsimuse lahendamisele uuenduse kaudu, et suurendada kasutaja kaitset.

Nende avastuste valguses on oluline nii AI arendajatele kui ka kasutajatele prioriteediks seada AI vestlusrobotite vestluste turvalisus ja privaatsus. Tugevad krüpteerimismeetodid tuleks rakendada, et vältida kõrvakanalirünnakuid ja tagada tundlike info konfidentsiaalsus.

Sagedased küsimused (FAQ):

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact