AI Chatbots: Užkariaunami siūlo lyčių sričių temomis: Tai svarbu žinoti

Dirbtinio intelekto (DI) „chatbot’ai“ tampa vis populiaresni, suteikdami vartotojams greitus ir patogius atsakymus į jų klausimus. Tačiau Izraelio Ben-Guriono universiteto tyrėjų neseniai padarytas atradimas pašvietė nerimą keliantį pažeidžiamumą „chatbotų“ pokalbiuose. Hekeriai gali išnaudoti šį pažeidžiamumą, kad spoksotų į privačius pokalbius ir gautų prieigą prie jautrios informacijos.

Kalbama pažeidžiamumo yra žinoma kaip „šalies kanalo ataka“. Skirtingai nei tradiciniai hakavimo metodai, kuriuose naudojami sienos užkirpimo uždaviniai, šalies kanalo atakos remiasi duomenų pasyvaus spėjimo naudojant metaduomenis ar kitas netiesiogines atidengimų formas. Šio tipo ataka gali būti vykdoma piktybinio veikėjo, esančio tame pačiame tinkle, ar netgi internetu, kuris gali stebėti eismą.

Tai, kas „chatbotus“ daro ypač pažeidžiamais šalies kanalo atakoms, yra jų šifravimo praktikos. Nors DI kūrėjai, tokių kaip „OpenAI“, naudoja šifravimą, kad apsaugotų „chatbotų“ eismą, Ben-Guriono universiteto komandos atliktas tyrimas rodo, kad naudojami šifravimo metodai yra trūkumų. Dėl šios priežasties privačių su „chatbotais“ mainytų žinučių turinys gali būti atskleistas potencialiems klausytojams.

Išnaudojęs šį pažeidžiamumą, atakuojuosi gali apytiksliai spėti „chatbotams“ duotus pranešimus su reikšmingu tikslumu. Tyrėjai nustatė, kad jautrii klausimai, užduoti „chatbotams“, gali būti nustatyti piktybinio veikėjo aplinkybėmis apie 55 proc. tikslumu. Tai kelia rimtą grėsmę vartotojų privatumui ir saugumui.

Svarbu pastebėti, kad šis pažeidžiamumas neapima vien „OpenAI“. Nustatyta, kad dauguma rinkoje esančių „chatbotų“, išskyrus Google „Gemini“, yra jautrūs šioms atakų tipams. Problemos šaknis yra sutankintų duomenų, vadinamų „ženklais“, naudojimas „chatbotams“ lengvam pokalbių srauto palaikymui. Nors pristatymo procesas paprastai šifruotas, patys „ženklai“ sukuria šalies kanalą, per kurį atakuojantieji gali patekti ir spėti „chatbotams“ duotus pranešimus.

Demonstruoti išnaudojimą, Ben-Guriono tyrėjai naudojo išgautus duomenis per šalies kanalą ir išugdė kalbos modelį identifikuoti pagrindinių žodžių, susijusių su pranešimais. Rezultatai buvo nerimą keliantys: kalbos modelis tiksliai nurodė bendruosius pranešimus 50 proc. laiko ir juos nuspėjo su pastebimai tiksliom 29 proc. laiko.

Šio pažeidžiamumo pasekmės yra giliai susirūpinimas, ypač jautrių temų, tokiose kaip abortai ar LGBTQ klausimai, kontekste. Kadangi šios temos susiduria su didėjančia kriminalizacija, asmenys, ieškantys informacijos ar paramos per DI „chatbotus“, gali nežinodami atiduoti save žalai ar bausmei.

Microsoft, kuris yra „OpenAI“ ir „Copilot AI“ savininkas, pripažino pažeidžiamumą. Tačiau jie užtikrina vartotojus, kad asmens duomenys, toki kaip vardai, tikėtina, kad nebus nuspėti. Microsoft įsipareigojo spręsti problemą, kad atnaujintų apsaugą.

Šių atradimų akivaizdoje yra būtina, kad tiek DI kūrėjai, tiek vartotojai pirmenybę teiktų DI „chatbotų“ pokalbių saugumui ir privatumui. Stiprūs šifravimo priemonės turėtų būti taikomos, kad būtų išvengta šalies kanalo atakų ir užtikrinta jautrios informacijos konfidencialumas.

DUK:

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact