Den veksande trusselen frå generativ kunstig intelligens i cyberoperasjonar

Microsoft avslørte nyleg at USA sine motstandarar, spesifikt Iran og Nord-Korea, nyttar seg av generativ kunstig intelligens (KI) for å gjennomføre offensive cyberoperasjonar. I tillegg har også Russland og Kina byrja å nytte seg av denne teknologien, sjølv om dei bruker den i mindre grad. Medan desse teknikkane framleis er på det tidlege stadiet og ikkje særleg nye, meiner Microsoft at det er avgjerande å avsløre dei offentleg, då desse landa nyttar store språkmodellar for å bryte seg inn i nettverk og gjennomføre påverknadsoperasjonar.

Generativ KI, spesielt leia av OpenAIs ChatGPT, har auka konfliktnivået mellom cybersikkerheitsfirma og kriminelle/offensive hackers. Microsoft, som har investert tungt i OpenAI, advarte om at generativ KI har potensiale til å forsterke skadeleg sosial manipulasjon, noko som kan føre til meir sofistikerte deepfakes og stemmekloning. Dette utgjer ei betydeleg trussel mot demokratiske prosessar, særleg i eit år der fleire land har val, noko som forsterkar spreiinga av misinformasjon.

Microsoft ga ulike døme på korleis desse USA-motstandarane har nytta seg av generativ KI. Den nordkoreanske gruppa Kimsuky brukte modellane til å forske på utanlandske tankesmier og generere innhald for spear-phishing-kampanjar. Den iranske Revolusjonsgarden brukte store språkmodellar til sosial manipulasjon, feilsøking av programvarefeil og studie av metodar for å unngå oppdaging i nettverk, inkludert å lage svindel-e-postar. Russlands GRU-militære etterretningseining, kjent som Fancy Bear, forska på satellitt- og radarteknologi knytt til konflikten i Ukraina. Dei kinesiske cyberespionasjegruppene Aquatic Panda og Maverick Panda har også utforska korleis store språkmodellar kan forbetre deira tekniske operasjonar.

Likevel presiserte OpenAI at deira noverande GPT-4-modell chatbot har avgrensa moglegheiter når det kjem til skadelege cybersikkerhetsoppgåver, i tillegg til det som allereie finst med ikkje-AI-drevne verktøy. Likevel er det forventa at cybersikkerheitsforskarar trur at dette vil endre seg i framtida.

Direktøren for det amerikanske Cybersecurity and Infrastructure Security Agency, Jen Easterly, understreka betydninga av både Kina og kunstig intelligens som epoke-definerande truslar og utfordringar. Ho poengterte behovet for at KI blir bygd med tanke på tryggleik. Kritikarar har sett fram bekymringar om lanseringa av store språkmodellar og hevdar at tryggleik var ettertenksamt undervegs i utviklinga deira.

Vidare er det avgjerande for organisasjonar som Microsoft å ikkje berre ta tak i sårbarheiter i store språkmodellar, men også prioritere å gjere dei meir sikre. Bruken av generativ KI og store språkmodellar, sjølv om det ikkje utgjer ein umiddelbar trussel, kan potensielt bli eit av dei mest effektive våpena i offensiven for alle nasjonale militære styrkar. Det er avgjerande for cybersikkerhetsmiljøet å halde auge med og aktivt arbeide for å utvikle sterkare sikkerhetstiltak i møte med utviklande KI-teknologi.

Frequently Asked Questions:

Spørsmål: Kva er generativ kunstig intelligens (KI)?
Svar: Generativ KI viser til bruk av KI-teknologi for å skape nytt og originalt innhald, som tekst, bilete eller video.

Spørsmål: Korleis nyttar amerikanske motstandarar, spesifikt Iran og Nord-Korea, seg av generativ KI?
Svar: Desse landa nyttar stor språkmodellar, spesielt generativ KI, for å bryte seg inn i nettverk, gjennomføre påverknadsoperasjonar, engasjere seg i sosial manipulasjon og skape phishing-kampanjar.

Spørsmål: Kva andre land har byrja å bruke generativ KI?
Svar: Også Russland og Kina har byrja å bruke denne teknologien, sjølv om dei bruker den i mindre grad enn Iran og Nord-Korea.

Spørsmål: Kva er bekymringane knytt til bruk av generativ KI?
Svar: Generativ KI har potensiale til å forsterke skadeleg sosial manipulasjon, føre til meir sofistikerte deepfakes, stemmekloning og spreiing av misinformasjon. Dette utgjer ei betydeleg trussel mot demokratiske prosessar, spesielt i valperiodar.

Spørsmål: Korleis har OpenAIs ChatGPT bidrege til bruken av generativ KI?
Svar: OpenAIs ChatGPT, ein generativ KI-modell, har auka konfliktnivået mellom cybersikkerheitsfirma og offensive hackers ved å gi avanserte moglegheiter for skadelege oppgåver.

Spørsmål: Kva døme gav Microsoft på korleis amerikanske rivalar har nytta seg av generativ KI?
Svar: Nord-Koreas gruppe Kimsuky brukte generativ KI til å forske på tankesmier og skape innhald for spear-phishing-kampanjar. Iranske Revolusjonsgardane brukte stor språkmodellar til sosial manipulasjon og feilsøking av programvarefeil. Russlands GRU-militære etterretningsenhet forska på satellitt- og radarteknologi knyttet til konflikten i Ukraina. Dei kinesiske cyberespionasjegruppene Aquatic Panda og Maverick Panda utforska korleis stor språkmodellar kan forbetre deira operasjonar.

Spørsmål: Kan generativ KI brukast til skadelege cybersikkerhetsoppgåver utover ikkje-AI-drevne verktøy?
Svar: For øyeblikket kan ikkje OpenAIs GPT-4-modell, ein chatbot, utføre mange slike oppgåver. Likevel forventar cybersikkerheitsforskarar at dette vil endre seg i framtida.

Spørsmål: Kva er haldninga til det amerikanske Cybersecurity and Infrastructure Security Agency (CISA) når det gjeld bruk av kunstig intelligens?
Svar: Direktøren for CISA, Jen Easterly, understreka betydninga av Kina og kunstig intelligens som epoke-definerande truslar og utfordringar. Ho poengterte behovet for KI som blir bygd med tanke på tryggleik.

Spørsmål: Kva bør organisasjonar som Microsoft prioritere når det gjeld stor språkmodellar?
Svar: Det er avgjerande for organisasjonar som Microsoft å ta tak i sårbarheiter i stor språkmodellar og prioritere å gjere dei meir sikre. Bruken av generativ KI og stor språkmodellar kan potensielt bli eit av dei mest effektive våpena som nasjonale militære styrkar nyttar.

Spørsmål: Kva bør cybersikkerheitsmiljøet gjere som svar på den utviklande KI-teknologien?
Svar: Cybersikkerheitsmiljøet bør halde auge med utviklinga og aktivt arbeide med å utvikle sterkare sikkerhetstiltak i møte med den utviklande KI-teknologien.

Definisjonar:

– Generativ KI: KI-teknologi som blir brukt til å skape nytt og originalt innhald.
– Stor språkmodell: KI-modellar som har blitt trent opp på store mengder tekstdata for å generere innhald som liknar menneskeleg skapt innhald.
– Spear-phishing-kampanjar: Målretta e-post-phishing-kampanjar som har som mål å lure personar til å avsløre sensitiv informasjon eller utføre visse handlingar.
– Sosial manipulasjon: Å manipulere individ for å få uautorisert tilgang til informasjon eller system.
– Deepfakes: Manipulerte media, som videoar eller bilete, som ser ekte ut, men er faktisk kunstig laga.
– Stemmekloning: Evna til å imitere nokon sin stemme ved hjelp av KI-teknologi.
– Misinformasjon: Falsk eller villedande informasjon som blir med vilje spreidd for å villeie eller manipulere offentleg meiningsdanning.
– Ikkje-AI-drevne verktøy: Verktøy eller metoder som ikkje nyttar seg av kunstig intelligens.
– Chatbot: Eit KI-drevet dataprogram som er designa for å simulere menneskeleg samtale gjennom tekstmeldingar eller taleinteraksjon.
– Cyberespionasje: Bruk av datanettverk for å få uautorisert tilgang til konfidensiell informasjon for etterretning eller militære føremål.

Foreslåtte relaterte lenker:
– Microsoft
– OpenAI
– U.S. Cybersecurity and Infrastructure Security Agency

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact