AI und die Zukunft der Cybersicherheit

Künstliche Intelligenz (KI) hat sich als ein leistungsstarkes Werkzeug in verschiedenen Bereichen bewährt. Doch neue Erkenntnisse deuten darauf hin, dass sie missbraucht werden kann, um selbstverstärkende Malware zu entwickeln, die herkömmliche Erkennungsmethoden umgeht. Große Sprachmodelle (LLMs) in KI-gesteuerten Tools können verwendet werden, um den Quellcode von Malware zu manipulieren und es somit zu ermöglichen, Sicherheitssysteme zu umgehen.

Ein Bericht der Cybersicherheitsfirma Recorded Future hebt das Potenzial von generativer KI hervor, um String-basierte YARA-Regeln zu umgehen, die in der Malware-Erkennung eingesetzt werden. Durch die Veränderung des Codes kleiner Malware-Varianten kann der vom LLM generierte Code die Erkennungsraten senken und es für Sicherheitssysteme schwieriger machen, bösartige Software zu identifizieren und zu stoppen. Diese Entdeckung unterstreicht die besorgniserregenden Möglichkeiten von KI-Technologien in den Händen von Bedrohungsakteuren.

In einem Experiment reichten Forscher ein Stück Malware namens STEELHOOK, das mit der Hackergruppe APT28 in Verbindung gebracht wird, bei einem LLM zusammen mit seinen YARA-Regeln ein. Das Ziel war es, den Quellcode der Malware so zu verändern, dass deren Funktionalität erhalten bleibt, während sie der Erkennung entgeht. Der vom LLM generierte Code umging erfolgreich einfache String-basierte YARA-Regeln, was das Potenzial der Ausnutzung von KI bei der Umgehung von Cybersicherheitsmaßnahmen zeigt.

Allerdings gibt es Einschränkungen bei diesem Ansatz. Ein bedeutender Nachteil liegt in der Menge an Text, die ein KI-Modell gleichzeitig verarbeiten kann. Diese Beschränkung macht es schwierig, auf größeren Code-Basen zu operieren. Dennoch gehen die potenziellen Einsatzmöglichkeiten von generativer KI bei Cyberbedrohungen über die Erkennung hinaus.

Die gleichen KI-Tools, die Malware-Code manipulieren können, könnten auch eingesetzt werden, um Deepfakes zu erstellen, die Führungskräfte und Politiker imitieren. Dies wirft Bedenken hinsichtlich einer groß angelegten Identitätsfälschung auf und der Möglichkeit von Einflussoperationen, die legitime Websites imitieren. Darüber hinaus kann generative KI die Aufklärungsbemühungen von Bedrohungsakteuren gegen kritische Infrastruktureinrichtungen beschleunigen. Durch die Auswertung und Anreicherung von öffentlichen Bildern, Videos und Luftaufnahmen können wertvolle Metadaten extrahiert werden, um strategische Informationen für nachfolgende Angriffe bereitzustellen.

Organisationen sollten wachsam sein, um die Risiken, die von diesen KI-gesteuerten Bedrohungen ausgehen, zu minimieren. Es wird empfohlen, öffentlich zugängliche Bilder und Videos, die sensible Ausrüstung zeigen, genau zu überprüfen. Gegebenenfalls sollten solche Inhalte gründlich geprüft und bereinigt werden, um möglichen Missbrauch zu verhindern.

Während der Fokus bisher hauptsächlich auf dem Missbrauch von KI-Technologie lag, ist es erwähnenswert, dass die KI-Modelle selbst angegriffen werden können. Neueste Forschungen haben gezeigt, dass LLM-gesteuerte Tools geknackt werden können, was die Produktion von schädlichem Inhalt ermöglicht. Beispielsweise könnten ASCII-Kunstinputs mit sensiblen Phrasen die Sicherheitsmaßnahmen umgehen und LLMs manipulieren, um unerwünschte Aktionen auszuführen. Dieser praktische Angriff, bekannt als ArtPrompt, verdeutlicht die Notwendigkeit verbesserte Sicherheitsmaßnahmen zu implementieren, um KI-Modelle vor Manipulation und Missbrauch zu schützen.

Angesichts dieser Entwicklungen wird klar, dass KI eine zunehmend wichtige Rolle in der Cybersicherheitslandschaft spielt. Da die Fähigkeiten von KI weiter voranschreiten, ist es entscheidend, dass Organisationen und Einzelpersonen über aufkommende Bedrohungen informiert bleiben und proaktive Sicherheitsmaßnahmen ergreifen.

FAQ

The source of the article is from the blog foodnext.nl

Privacy policy
Contact