Den Voksende Trussel fra Generativ Kunstig Intelligens i Cyber Operationer

Microsoft afslørede for nylig, at amerikanske modstandere, specifikt Iran og Nordkorea, bruger generativ kunstig intelligens (AI) til at udføre offensive cyber operationer. Desuden har også Rusland og Kina begyndt at benytte denne teknologi, dog i mindre omfang. Mens disse teknikker stadig er i deres tidlige stadier og ikke særlig nyskabende, mener Microsoft, at det er afgørende at afsløre dem offentligt, da disse lande udnytter store sprogmodeller til at bryde ind i netværk og udføre påvirkningsoperationer.

Generativ AI, især drevet af OpenAI’s ChatGPT, har intensiveret kat-og-mus legen mellem cybersikkerhedsfirmaer og kriminelle/offensive hackere. Microsoft, som har investeret stort i OpenAI, advarede om, at generativ AI har potentialet til at forbedre ondsindet social engineering, hvilket kan føre til mere sofistikerede deepfakes og stemmekloning. Dette udgør en betydelig trussel mod demokratiske processer, især i et år hvor mange lande afholder valg, hvilket forstærker spredningen af desinformation.

Microsoft gav forskellige eksempler på, hvordan disse amerikanske rivaler har brugt generativ AI. Den nordkoreanske gruppe Kimsuky udnyttede modellerne til at undersøge udenlandske tænketanke og generere indhold til spear-phishing-kampagner. Irans Revolutionære Garde anvendte store sprogmodeller til social engineering, fejlfinding af software og studier af metoder til undgåelse af netværksdetektion, herunder oprettelse af phishing-e-mails. Ruslands GRU-militære efterretningstjeneste, kendt som Fancy Bear, undersøgte satellit- og radar-teknologier i forbindelse med konflikten i Ukraine. De kinesiske cyberespionage-grupper Aquatic Panda og Maverick Panda har også udforsket, hvordan store sprogmodeller kan forbedre deres tekniske operationer.

Dog præciserede OpenAI, at deres nuværende chatbot-model GPT-4 kun har begrænsede evner inden for ondsindede cybersikkerhedsopgaver ud over hvad der allerede findes med ikke-AI-baserede værktøjer. Ikke desto mindre forventer cybersikkerhedsforskere, at dette vil ændre sig i fremtiden.

Jen Easterly, direktør for det amerikanske Cybersecurity and Infrastructure Security Agency (CISA), understregede betydningen af både Kina og kunstig intelligens som epoch-definerende trusler og udfordringer. Hun understregede behovet for, at AI bygges med sikkerhed for øje. Kritikere har rejst bekymringer om frigivelsen af store sprogmodeller og argumenterer for, at sikkerhed ikke blev prioriteret under deres udvikling.

Det er afgørende for organisationer som Microsoft at adressere sårbarheder i store sprogmodeller og prioritere at gøre dem mere sikre. Brugen af generativ AI og store sprogmodeller udgør ikke umiddelbart en trussel, men det kan potentielt blive et af de mest effektive våben i enhver nationstats militære offensiv. Det er afgørende for cybersikkerhedsfællesskabet at forblive årvågne og aktivt arbejde på at udvikle stærkere sikkerhedsforanstaltninger i lyset af den udviklende AI-teknologi.

En FAQ baseret på de vigtigste emner og informationer præsenteret i artiklen:

Q: Hvad er generativ kunstig intelligens (AI)?
A: Generativ AI refererer til brugen af AI-teknologi til at skabe nyt og originalt indhold, såsom tekst, billeder eller videoer.

Q: Hvordan bruger amerikanske modstandere, specifikt Iran og Nordkorea, generativ AI?
A: Disse lande udnytter generativ AI, specifikt store sprogmodeller, til at bryde ind i netværk, udføre påvirkningsoperationer, engagere sig i social engineering og skabe phishing-kampagner.

Q: Hvilke andre lande er begyndt at bruge generativ AI?
A: Rusland og Kina har også begyndt at bruge denne teknologi, dog i mindre omfang end Iran og Nordkorea.

Q: Hvad er bekymringerne ved brugen af generativ AI?
A: Generativ AI har potentialet til at forbedre ondsindet social engineering, hvilket kan føre til skabelse af mere sofistikerede deepfakes, stemmekloning og spredning af desinformation. Dette udgør en betydelig trussel mod demokratiske processer, især i valgperioder.

Q: Hvordan har OpenAI’s ChatGPT bidraget til brugen af generativ AI?
A: OpenAI’s ChatGPT, en generativ AI-model, har intensiveret kat-og-mus legen mellem cybersikkerhedsfirmaer og offensive hackere ved at tilbyde avancerede muligheder for ondsindede opgaver.

Q: Hvilke eksempler gav Microsoft på, hvordan amerikanske rivaler har brugt generativ AI?
A: Nordkoreas gruppe Kimsuky brugte generativ AI til at undersøge tænketanke og skabe indhold til spear-phishing-kampagner. Irans Revolutionære Garde brugte store sprogmodeller til social engineering og fejlfinding af software. Ruslands GRU-militære efterretningstjeneste undersøgte satellit- og radar-teknologier i forbindelse med konflikten i Ukraine. De kinesiske cyberespionage-grupper Aquatic Panda og Maverick Panda udforskede, hvordan store sprogmodeller kan forbedre deres operationer.

Q: Kan generativ AI bruges til ondsindede cybersikkerhedsopgaver udover ikke-AI-baserede værktøjer?
A: I øjeblikket tilbyder OpenAI’s GPT-4 chatbot-model kun begrænsede muligheder for sådanne opgaver. Dog forventer cybersikkerhedsforskere, at dette vil ændre sig i fremtiden.

Q: Hvad er holdningen fra USA’s Cybersecurity and Infrastructure Security Agency (CISA) til brugen af kunstig intelligens?
A: Direktøren for CISA, Jen Easterly, understregede betydningen af Kina og kunstig intelligens som epoch-definerende trusler og udfordringer. Hun understregede behovet for, at AI bygges med sikkerhed for øje.

Q: Hvad skal organisationer som Microsoft prioritere vedrørende store sprogmodeller?
A: Det er afgørende for organisationer som Microsoft at adressere sårbarheder i store sprogmodeller og prioritere at gøre dem mere sikre. Brugen af generativ AI og store sprogmodeller kan potentielt blive et af de mest effektive våben, som nationers militære anvender.

Q: Hvad skal cybersikkerhedsfællesskabet gøre som reaktion på den udviklende AI-teknologi?
A: Cybersikkerhedsfællesskabet skal forblive årvågne og aktivt arbejde på at udvikle stærkere sikkerhedsforanstaltninger i lyset af den udviklende AI-teknologi.

Definitioner:

– Generativ AI: AI-teknologi brugt til at skabe nyt og originalt indhold.
– Store sprogmodeller: AI-modeller, der er trænet på store mængder tekstdata til at generere menneskelignende indhold.
– Spear-phishing-kampagner: Målrettede e-mail-phishing-kampagner, der har til formål at narre personer til at afsløre følsom information eller udføre visse handlinger.
– Social engineering: Manipulering af personer for at opnå uautoriseret adgang til information eller systemer.
– Deepfakes: Forfalsket eller manipuleret medie, såsom videoer eller billeder, der ser ægte ud, men faktisk er syntetiske.
– Stemmekloning: Evnen til at efterligne en persons stemme ved hjælp af AI-teknologi.
– Desinformation: Falske eller vildledende oplysninger, der bevidst spredes for at bedrage eller manipulere offentlig mening.
– Ikke-AI-baserede værktøjer: Værktøjer eller metoder, der ikke er afhængige af kunstig intelligens-teknologi.
– Chatbot: Et AI-drevet computerprogram, der er designet til at simulere menneskelig samtale via tekst eller stemmeinteraktioner.
– Cyberespionage: Brugen af computer-netværk til uautoriseret adgang til fortrolig information til formål med efterretning eller militære formål.

Foreslåede relaterede links:
– Microsoft
– OpenAI
– USA’s Cybersecurity and Infrastructure Security Agency (CISA)

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact