Novo odkritje: Ranljivost umetne inteligence tudi pri klepetalnih robotih

Odkar so klepetalni roboti na osnovi umetne inteligence postali vse bolj priljubljeni, uporabnikom zagotavljajo hitre in priročne odgovore na njihova vprašanja. Vendar nedavno odkritje raziskovalcev Univerze Ben-Gurion v Izraelu razkriva skrb vzbujajočo ranljivost v pogovorih s klepetalnimi roboti na osnovi umetne inteligence. Hekerji lahko to ranljivost izkoristijo za vohunjenje v zasebne klepete in morebitno dostopanje do občutljivih informacij.

Omenjena ranljivost se imenuje “stranski kanalni napad.” Za razliko od tradicionalnih metod hekanja, ki vključujejo preboj varnostnih požarnih zidov, stranski kanalni napadi temeljijo na pasivnem sklepanju podatkov z uporabo metapodatkov ali drugih posrednih razkritij. Takšen napad lahko izvedejo zlonamerni akterji v istem omrežju ali celo kdo na internetu, ki lahko opazuje promet.

Kar klepetalne robote na osnovi umetne inteligence še posebej naredi dovzetne za stranske kanalne napade, so njihove prakse šifriranja. Čeprav razvijalci umetne inteligence, kot je OpenAI, uporabljajo šifriranje za zaščito prometa s klepetalnim robotom, raziskava, ki so jo izvedli pri Univerzi Ben-Gurion, nakazuje, da so uporabljene metode šifriranja pomanjkljive. Posledično se lahko vsebine zasebnih sporočil, ki so jih izmenjali s klepetalnimi roboti na osnovi umetne inteligence, izpostavijo morebitnim prisluškovalcem.

Z izkoriščanjem te ranljivosti lahko napadalci približno sklepajo, katere impulze so podali klepetalnim robotom na osnovi umetne inteligence s pomembnim deležem natančnosti. Raziskovalci so odkrili, da so zlonamerni akterji lahko z natančnostjo približno 55 odstotkov zaznali občutljiva vprašanja, postavljena klepetalnim robotom na osnovi umetne inteligence. To predstavlja resno grožnjo zasebnosti in varnosti uporabnikov.

Pomembno je omeniti, da ta ranljivost presega zgolj OpenAI. Po navedbah raziskave so večina klepetalnih robotov na trgu, razen Googlovega Geminija, dovzetni za te vrste napadov. Koren težave je v uporabi kodiranih podatkov, imenovanih “žetoni,” s klepetalnimi roboti za olajšanje nemotenega poteka pogovora. Čeprav je postopek dostave običajno šifriran, sami žetoni ustvarjajo stranski kanal, prek katerega lahko napadalci dostopajo in sklepajo o impulzih, podanih klepetalnemu robotu.

Da bi raziskali izkoriščanje, so raziskovalci Univerze Ben-Gurion uporabili pridobljene podatke prek stranskega kanala in izurili jezikovni model za identifikacijo ključnih besed, povezanih z impulzi. Rezultati so bili zaskrbljujoči, saj je jezikovni model z natančnostjo inferiral splošne impulze 50 odstotkov časa in jih s presenetljivo natančnostjo predvideval 29 odstotkov časa.

Posledice te ranljivosti so globoko zaskrbljujoče, zlasti v kontekstu občutljivih tem, kot so splav ali vprašanja LGBTQ. Posamezniki, ki prek klepetalnih robotov na osnovi umetne inteligence iščejo informacije ali podporo, se lahko nenamerno izpostavijo škodi ali kazni.

Microsoft, lastnik OpenAI in Copilot AI, je priznal ranljivost. Vendar zagotavljajo uporabnikom, da osebnih podrobnosti, kot so imena, verjetno ne bodo zmožni napovedati. Microsoft si prizadeva rešiti težavo z posodobitvijo za izboljšanje varstva uporabnikov.

Ob teh razkritjih je ključno, da tako razvijalci umetne inteligence kot uporabniki prednostno obravnavajo varnost in zasebnost pogovorov s klepetalnimi roboti na osnovi umetne inteligence. Za preprečevanje stranskih kanalnih napadov je treba uvesti robustne metode šifriranja.

Pogosta vprašanja:

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact