Vulnerabilitet i AI-chatbots udsat for sidekanalsangreb: Hvad du har brug for at vide

En nyttig opdagelse gør opmærksom på en sårbarhed i kunstig intelligens (AI) chatbots, der ellers er blevet stadig mere populære og giver brugerne hurtige og bekvemme svar på deres spørgsmål. Et forskerhold ved Ben-Gurion University i Israel har afsløret en bekymrende sårbarhed i samtaler med AI chatbots. Hackere kan udnytte denne sårbarhed til at spionere på private samtaler og potentielt få adgang til følsomme oplysninger.

Sårbarheden i spørgsmålet kaldes et “sidekanalsangreb.” I modsætning til traditionelle hackingmetoder, der involverer brud på sikkerhedsfirewalls, er sidekanalsangreb afhængige af passiv dataindføring ved hjælp af metadata eller andre indirekte eksponeringer. Denne type angreb kan udføres af skadelige aktører på det samme netværk eller endda af nogen på internettet, der kan observere trafikken.

Det, der gør AI chatbots særligt sårbare over for sidekanalsangreb, er deres krypteringspraksis. Mens AI-udviklere som OpenAI bruger kryptering til at beskytte chatbot-trafik, antyder forskningen udført af holdet fra Ben-Gurion University, at de anvendte krypteringsmetoder er fejlbehæftede. Som et resultat kan indholdet af private beskeder, der udveksles med AI chatbots, blive udsat for potentielle tilhørere.

Ved at udnytte denne sårbarhed kan angribere groft slutte, hvilke instruktioner der gives til AI-chatbots med en betydelig grad af nøjagtighed. Forskerne opdagede, at følsomme spørgsmål stillet til AI chatbots kunne detekteres med omkring 55 procents nøjagtighed af ondsindede aktører. Dette udgør en alvorlig trussel mod brugernes privatliv og sikkerhed.

Det er vigtigt at bemærke, at denne sårbarhed strækker sig ud over OpenAI. Ifølge undersøgelsen er de fleste chatbots på markedet, undtagen Googles Gemini, sårbare over for disse typer angreb. Problemet ligger i brugen af kodede data, kendt som “tokens” af chatbots til at lette en ubesværet samtalestrøm. Selvom leveringsprocessen generelt er krypteret, skaber tokens selv en sidekanal, hvorigennem angribere kan få adgang til og slutte de instruktioner, der gives til chatbot’en.

For at demonstrere udnyttelsen brugte forskerne fra Ben-Gurion rådata erhvervet gennem sidekanalen og trænede en sprogmodel til at identificere nøgleord relateret til instruktionerne. Resultaterne var alarmerende, med sprogmodellen, der nøjagtigt antydede de generelle instruktioner 50 procent af tiden og forudsagde dem med bemærkelsesværdig præcision 29 procent af tiden.

Konsekvenserne af denne sårbarhed er dybt bekymrende, især i forbindelse med følsomme emner som abort eller LGBTQ-spørgsmål. Da disse emner står over for øget kriminalisering, kan personer, der søger oplysninger eller støtte gennem AI chatbots, uforvarende udsætte sig for skade eller straf.

Microsoft, der ejer OpenAI og Copilot AI, har anerkendt sårbarheden. De forsikrer dog brugerne om, at personlige oplysninger som navne sandsynligvis ikke vil blive forudsagt. Microsoft er forpligtet til at løse problemet med en opdatering for at forbedre beskyttelsen af brugerne.

I lyset af disse afsløringer er det afgørende for både AI-udviklere og brugere at prioritere sikkerheden og fortroligheden af ​​AI chatbotsamtaler. Robuste krypteringsforanstaltninger bør implementeres for at forhindre sidekanalsangreb og sikre fortroligheden af følsomme oplysninger.

FAQ:

The source of the article is from the blog exofeed.nl

Privacy policy
Contact