De impact van AI-technologie in cybersecurity

Artificiële intelligentie (AI) heeft zijn kracht bewezen in verschillende domeinen, van taalverwerking tot beeldherkenning. Recent onderzoek suggereert echter dat grote taalmodellen (LLM’s) die worden gebruikt in op AI gebaseerde tools gemanipuleerd kunnen worden om zelfverbeterende malware te ontwikkelen die in staat is traditionele detectiemethoden te omzeilen.

Een rapport van cybersecuritybedrijf Recorded Future wijst op het potentieel van generatieve AI om string-gebaseerde YARA-regels te omzeilen door de broncode van kleine malwarevarianten aan te passen. Deze manipulatie verlaagt de detectiesnelheden, waardoor het moeilijker wordt voor beveiligingssystemen om dergelijke schadelijke software te identificeren en te stoppen. Hoewel deze ontdekking voortkwam uit een red team-oefening, belicht het de zorgwekkende mogelijkheden van AI-technologieën in handen van dreigingsactoren.

In het experiment hebben onderzoekers een stuk malware genaamd STEELHOOK, geassocieerd met de APT28-hackergroep, ingediend bij een LLM samen met zijn YARA-regels. Het doel was om de broncode van de malware zodanig aan te passen dat de functionaliteit behouden bleef terwijl detectie werd vermeden. De door LLM gegenereerde code wist succesvol eenvoudige string-gebaseerde YARA-regels te omzeilen, wat de voordelige exploitatie van AI bij het ontduiken van cybersecuritymaatregelen aantoont.

Er zijn echter beperkingen aan deze benadering. Een significante beperking ligt in de hoeveelheid tekst die een AI-model tegelijk kan verwerken. Deze beperking maakt het uitdagend om op grotere codebasissen te werken. Desalniettemin strekt het potentieel gebruik van generatieve AI in cyberdreigingen zich uit voorbij het ontwijken van detectie.

Dezelfde AI-tools die malwarecode manipuleren, kunnen ook worden gebruikt om deepfakes te creëren die leidinggevenden en leiders nabootsen. Dit roept zorgen op over impersonaties op grotere schaal en de mogelijkheid van invloedsoperaties die legitieme websites nabootsen. Bovendien heeft generatieve AI de mogelijkheid om verkenningsinspanningen te versnellen voor dreigingsactoren die gericht zijn op kritieke infrastructuurfaciliteiten. Door het analyseren en verrijken van openbare afbeeldingen, video’s en luchtfoto’s kunnen waardevolle metagegevens worden geëxtraheerd, wat strategische intelligentie biedt voor follow-up aanvallen.

Het is van cruciaal belang voor organisaties om waakzaam te zijn bij het beperken van de risico’s die deze door AI aangedreven dreigingen met zich meebrengen. Het wordt aanbevolen om openbaar toegankelijke afbeeldingen en video’s die gevoelige apparatuur afbeelden kritisch te bekijken. Indien nodig moet dergelijke content grondig worden gecontroleerd en gesaneerd om potentiële exploitatie te voorkomen.

Terwijl de focus grotendeels heeft gelegen op het misbruik van AI-technologie, is het vermeldenswaard dat AI-modellen zelf ook het doelwit kunnen zijn. Recente onderzoeken hebben aangetoond dat LLM-aangedreven tools kunnen worden ‘gejailbreakt’, waardoor de productie van schadelijke inhoud mogelijk is. Zo kan het doorgeven van ASCII-kunstinputs met gevoelige zinnen de veiligheidsmaatregelen omzeilen en LLM’s manipuleren om ongewenste acties uit te voeren. Deze praktische aanval, bekend als ArtPrompt, benadrukt de noodzaak van verbeterde beveiligingsmaatregelen om AI-modellen te beschermen tegen manipulatie en misbruik.

In het licht van deze ontwikkelingen is het duidelijk dat AI een steeds prominentere rol speelt in het cybersecurity-landschap. Naarmate de mogelijkheden van AI blijven toenemen, is het van essentieel belang voor organisaties en individuen om op de hoogte te blijven van opkomende bedreigingen en proactieve beveiligingsmaatregelen te implementeren.

FAQ

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact