AI og Cybersecurity: Fremståande Utvikling av Truslar og Skadeleg Programvare

Kunstig intelligens (AI) har vist seg å være et kraftig verktøy i ulike områder, frå språkprosessering til bildeanerkjenning. Likevel tyder nye funn på at store språkmodellar (LLM) som blir nytta i AI-drevne verktøy kan manipulerast for å utvikle sjølvforsterkande skadeleg programvare som kan omgå tradisjonelle oppdagingmetoder.

I følgje ein rapport frå cyberseikkingsfirmaet Recorded Future har generativ AI potensialet til å omgå strengbaserte YARA-reglar ved å endre kjeldekoden til små varianter av skadeleg programvare. Denne manipuleringa reduserer oppdagingstakten, noko som gjer det vanskelegare for sikkerheitssystem å identifisere og stoppe slik skadeleg programvare. Sjølv om denne oppdagelsen stammar frå ein raud team-øving, er det eit varselsteikn om dei bekymringsfull moglegheitene som ligg i AI-teknologiane i hendene på trugselaktørane.

I forsøket sende forskare inn eit stykke skadeleg programvare kalla STEELHOOK, tilknytt det APT28-hackargruppa, til ein LLM saman med YARA-reglar. Målet var å modifisere kjeldekoden til skadeleg programvare på ein måte som bevarar funksjonaliteten medan den unngår oppdaging. Den LLM-genererte koden omgjekk enkelt strengbaserte YARA-reglar, og demonstrerte den mogelege utnyttinga av AI i å unngå sikkerhetstiltak innanfor cyberseikring.

Likevel er det avgrensningar i denne tilnærminga. Eit vesentleg problem er mengda tekst som ein AI-modell kan behandle om gongen. Dette gjer det utfordrande å operere på større kodebasar. Likevel strekkjer den potensielle bruken av generativ AI i sibertruslar seg utover å unngå oppdaging.

Dei same AI-verktøya som manipulerer skadeleg programvarekode, kan også nyttast til å lage deepfakes som etterliknar leiarar og toppfigurar. Dette reiser spørsmål om etterlikningar på ein større skala og moglegheitene for påverknadsoperasjonar som imiterer legitime nettsider. Dessutan har generativ AI kapasiteten til å akselerere rekognoseringsinnsatsar frå trugselaktørar som rettar seg mot kritisk infrastruktur. Gjennom å analysere og berike offentlege bilete, videoar og luftbilete kan verdifull metadata ekstraherast og gi strategisk etterretning for oppfølgingsangrep.

Det er avgjerande for organisasjonar å vere vakne for å redusere risikoen som slike AI-dreivne truslar utgjer. Gjennom å granske offentlig tilgjengeleg bilde- og videomateriale som viser sensitivt utstyr, blir det tilrådd. Ved behov bør slikt innhald granskast nøye og rensast for å førebyggje potensiell utnytting.

Medan fokuset i stor grad har vore på misbruket av AI-teknologi, er det verdt å merke seg at AI-modellar sjølve kan bli målretta. Nyleg forskning har avdekka at LLM-drevne verktøy kan »jailbreakast», noko som gjer det muleg å produsere skadeleg innhald. Ved å sende inn ASCII-kunstinput som inneheld sensitive frasar, kan ein omgå tryggleikstiltak og manipulere LLM-er for å utføre uønska handlingar. Dette praktiske angrepet, kjent som ArtPrompt, understrekar behovet for forbetra tryggleikstiltak for å beskytte AI-modellar frå manipulasjon og misbruk.

I lys av desse utviklingane er det klart at AI spelar ei stadig viktigare rolle i cyberseikringslandskapet. Medan evnene til AI held fram med å avansere, er det avgjerande for organisasjonar og enkeltindivid å halde seg oppdatert om nye truslar og ta i bruk førebyggjande sikkerhetstiltak.

FAQ

The source of the article is from the blog jomfruland.net

Privacy policy
Contact