AI Chatbots: Utsette for Sidekanalangrep og Konsekvenser

Den økande populariteten til kunstig intelligens (AI)-chatbots har gitt brukarane rask og praktisk respons på spørsmåla deira. Ein ny oppdagelse gjort av forskarar ved Ben-Gurion University i Israel har imidlertid kasta lys over ein bekymringsfull sårbarheit i AI-chatbotsamtalar. Hackarar kan utnytte denne sårbarheita for å spionere på private samtalar og potensielt få tilgang til sensitiv informasjon.

Sårbarheita som er på tale, er kjent som eit «sidekanalangrep.» I motsetning til tradisjonelle hackingmetodar som inneber å bryte tryggingsbrannmurar, er sidekanalangrep avhengige av passiv inferens av data ved hjelp av metadata eller andre indirekte eksponeringar. Denne typen angrep kan utførast av skadelege aktørar på det same nettverket eller til og med av nokon på internett som kan overvake trafikken.

Det som gjer AI-chatbots spesielt sårbare for sidekanalangrep, er deira krypteringspraksis. Mens AI-utviklarar, som OpenAI, bruker kryptering for å beskytte chatbottrafikken, tyder forskinga utført av teamet ved Ben-Gurion University på at krypteringsmetodane som er brukt, er mangelfulle. Som eit resultat kan innhaldet i private meldingar utveksla med AI-chatbots bli avslørt for potensielle avlyttarar.

Ved å utnytte denne sårbarheita, kan angriparar grovt kunne slutte seg til oppfordringane gitt til AI-chatbots med ein betydeleg grad av nøyaktigheit. Forskarane oppdaga at sensitive spørsmål stilt til AI-chatbots kunne bli oppdaga med omtrent 55 prosent nøyaktigheit av skadelege aktørar. Dette utgjer ein alvorleg trussel mot brukartryggleik og personvern.

Det er viktig å merke seg at denne sårbarheita går ut over OpenAI. Ifølgje forskinga er dei fleste chatbots på marknaden, med unntak av Googles Gemini, sårbare for denne typen angrep. Problemet ligg i bruk av kodet data kjent som «tokens» av chatbots for å lette naudlaust samtaleflyt. Sjølv om leveringsprosessen er generelt kryptert, skapar tokena sjølve ein sidekanal der angriparar kan få tilgang til og slutte seg til oppfordringane gitt til chatboten.

For å demonstrere utnyttinga brukte forskarane ved Ben-Gurion rådata som dei hadde skaffa gjennom sidekanalen, og trente ein språkmodell for å identifisere nøkkelord knytte til oppfordringane. Resultata var alarmerande, med språkmodellen som nøyaktig slutta seg til dei generelle oppfordringane 50 prosent av tida og forutsa dei med forbløffande presisjon 29 prosent av tida.

Konsekvensane av denne sårbarheita er djupt bekymringsfulle, særleg med tanke på sensitive tema som abort eller LHBTQ-saker. Ettersom desse emna møter aukande kriminalisering, kan enkeltindivid som søkjer informasjon eller støtte gjennom AI-chatbots, ufrivillig utsetje seg for skade eller straff.

Microsoft, som eig OpenAI og Copilot AI, har erkjent sårbarheita. Dei forsikrar imidlertid brukarane om at personlege detaljar, som namn, mest truleg ikkje blir forutsett. Microsoft er forplikta til å takle problemet med ein oppdatering for å forbetre brukarvernet.

I lys av desse avsløringane er det avgjerande for både AI-utviklarar og brukarar å prioritere sikkerheten og personvernet til AI-chatbotsamtalar. Robuste krypteringsmåtar bør implementerast for å førebygge sidekanalangrep og sikre konfidensialiteten til sensitiv informasjon.

FAQ:

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact