Ny trussel: Modstandere udnytter generativ AI til cyberoperationer

Microsofts nylige opdagelse og afbrydelse af cyberoperationer udført af amerikanske modstandere ved hjælp af generativ kunstig intelligens (AI) har kastet lys over en fremvoksende trussel i cybersikkerhedslandskabet. Selvom teknikkerne anvendt af disse modstandergrupper ikke var nye, demonstrerede de potentialet for store sprogmodeller til markant at forbedre deres offensive kapaciteter.

I samarbejde med sin partner OpenAI afslørede Microsoft tilfælde, hvor Iran, Nordkorea, Kina og Rusland forsøgte at udnytte generativ AI til offensive cyberoperationer. Microsoft understregede vigtigheden af at offentliggøre disse angreb, selvom de var på et tidligt stadie eller inkrementelle trin. Formålet var at øge bevidstheden om den stigende anvendelse af store sprogmodeller af geopolitiske rivaler til at bryde ind i netværk og udføre indflydelsesoperationer.

Store sprogmodeller som f.eks. OpenAIs ChatGPT har radikalt ændret spillet mellem kat og mus inden for cybersikkerhed. Mens maskinlæring oprindeligt blev brugt af cybersikkerhedsfirmaer til forsvarsformål, har kriminelle og offensive hackere nu også adopteret det. Microsofts betydelige investering i OpenAI understreger vigtigheden af denne udvikling.

Ved at afbryde cyberaktiviteterne hos forskellige modstandergrupper afslørede Microsoft deres udnyttelse af generativ AI til forskellige formål. For eksempel udnyttede Nordkoreas Kimsuky-gruppe modellerne til at undersøge udenlandske tænketanke og skabe indhold til spear-phishing-kampagner. Irans Revolutionsgarde anvendte store sprogmodeller til at forbedre social engineering-teknikker, fejlfinding af software og studere måder at undgå opdagelse i kompromitterede netværk.

Den russiske militære enhed Fancy Bear fra GRU fokuserede på at forske i satellit- og radarteknologier relevante for konflikten i Ukraine. Imens brugte de kinesiske cyberespiongrupper Aquatic Panda og Maverick Panda modellerne til at undersøge, hvordan store sprogmodeller kunne styrke deres tekniske operationer og indhente information om forskellige følsomme emner.

Microsofts resultater stemte overens med OpenAIs vurdering af, at deres nuværende ChatGPT-model havde begrænsede evner til skadelige cybersikkerhedsopgaver ud over hvad der kan opnås med ikke-AI-drevne værktøjer. Dog kan de potentielle risici ved udviklingen og implementeringen af AI og store sprogmodeller i offensive cyberaktiviteter ikke undervurderes.

Som eksperter har advaret om, er både Kina og kunstig intelligens blevet betragtet som epoch-definerende trusler og udfordringer. En ansvarlig udvikling af AI med fokus på sikkerhed er afgørende, da den stigende anvendelse af store sprogmodeller af nationer uundgåeligt vil føre til deres fremkomst som potente våben.

Kritikere har påpeget den hastige frigivelse af ChatGPT og lignende modeller og argumenteret for, at sikkerhed ikke blev tilstrækkeligt prioriteret under deres udvikling. Nogle cybersikkerhedsprofessionelle har også kritiseret Microsofts tilgang og foreslået, at de bør fokusere på at skabe mere sikre grundlagsmodeller i stedet for at sælge forsvarsredskaber til at løse sårbarheder, som de selv har bidraget til.

Opdagelsen og afbrydelsen af modstandernes cyberoperationer understreger behovet for øget årvågenhed og sikkerhedsforanstaltninger i lyset af udviklingen af AI-teknologier. Mens AI og store sprogmodeller fortsætter med at udvikle sig, bliver både defensive og offensive aktører nødt til at tilpasse deres strategier for at mindske de potentielle risici, som denne fremvoksende trussel udgør.

Ofte stillede spørgsmål:

Spørgsmål: Hvad opdagede Microsoft for nylig inden for cybersikkerhed?
Svar: Microsoft opdagede og afbrød cyberoperationer udført af amerikanske modstandere ved hjælp af generativ kunstig intelligens (AI).

Spørgsmål: Hvilke lande forsøgte at udnytte generativ AI til offensive cyberoperationer?
Svar: Iran, Nordkorea, Kina og Rusland blev identificeret som de involverede lande.

Spørgsmål: Hvad er betydningen af store sprogmodeller inden for cybersikkerhed?
Svar: Store sprogmodeller som f.eks. OpenAIs ChatGPT har transformeret området for cybersikkerhed og giver både forsvarere og angribere nye værktøjer og evner.

Spørgsmål: Hvordan brugte disse modstandergrupper generativ AI?
Svar: De brugte det til forskellige formål, herunder undersøgelse af mål, skabelse af indhold til spear-phishing-kampagner, forbedring af social engineering-teknikker, fejlfinding af software og undgåelse af opdagelse i kompromitterede netværk.

Spørgsmål: Hvad stemte Microsofts fund overens med?
Svar: Microsofts fund stemte overens med OpenAIs vurdering af, at ChatGPT-modellen havde begrænsede evner til skadelige cybersikkerhedsopgaver ud over hvad ikke-AI-drevne værktøjer kan opnå.

Spørgsmål: Hvad er de potentielle risici ved udviklingen og implementeringen af AI i offensive cyberoperationer?
Svar: Risiciene er betydelige, da AI og store sprogmodeller har potentialet til at blive potente våben i nationers hænder.

Spørgsmål: Hvilken kritik er blevet rettet mod frigivelsen af modeller som ChatGPT?
Svar: Kritikere hævder, at sikkerhed ikke blev tilstrækkeligt prioriteret under deres udvikling, og cybersikkerhedsprofessionelle foreslår at fokusere på at skabe mere sikre grundlagsmodeller i stedet for at sælge forsvarsredskaber.

Definitioner:

– Generativ kunstig intelligens (AI): AI-teknologi, der kan generere nyt indhold som tekst eller billeder baseret på mønstre og eksempler, den har lært.
– Store sprogmodeller: AI-modeller, der er trænet på store mængder tekstdata og kan generere sammenhængende og kontekstuelt relevant sprog.
– Offensive cyberoperationer: Cyberaktiviteter med intentioner om at skade, udnytte eller få uautoriseret adgang til netværk eller systemer.
– ChatGPT: En stor sprogmodel udviklet af OpenAI til at generere tekstsvar, der ligner menneskelig dialog.
– Spear-phishing-kampagner: Målrettede phishing-angreb rettet mod specifikke enkeltpersoner eller organisationer ved hjælp af personliggjorte og overbevisende beskeder.

Forslåede relaterede links:

– Microsofts cybersikkerhedsblog
– OpenAIs hjemmeside
– Cybersikkerheds- og Infrastrukturagentur (CISA)

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact