Az előző cikkben bemutatott esettanulmányok alapján egyértelmű, hogy a mesterséges intelligencia (AI) jelenlegi formájában jelentős kockázatot hordozhat a digitális biztonság szempontjából. Az AI-t használó rosszindulatú szereplők képesek önmaguk felerősítésére alkalmas kártékony szoftverek fejlesztésére, melyek képesek kijátszani a hagyományos észlelési módszereket.
A Recorded Future kiberbiztonsági cég egy jelentése kiemeli a generatív AI potenciálját a string-alapú YARA szabályok kijátszására, melyeket a kártékony szoftverek észlelésére használnak. Az LLM-generált kód átalakításával alacsonyabb lehet az észlelési arány, ami megnehezíti a biztonsági rendszerek számára a rosszindulatú szoftverek azonosítását és megállítását. Ez a felfedezés rávilágít az AI technológiák aggasztó lehetőségeire a fenyegető személyek kezében.
Az kutatásban a STEELHOOK nevű, az APT28 hackercsoporttal összefüggésbe hozott kártékony szoftvert adták be egy LLM-hez együtt a YARA szabályokkal. A cél az volt, hogy módosítsák a kártékony szoftver forráskódját úgy, hogy megőrizze funkcionalitását, miközben kijátsza az észlelést. Az LLM-generált kód sikeresen kijátszotta a egyszerű string-alapú YARA szabályokat, ezáltal bemutatva az AI potenciális kihasználását a kiberbiztonsági intézkedések kijátszására.
Azonban meglehetős korlátai vannak ennek az általános megközelítésnek. Az AI modell egy időben feldolgozható szövegmennyisége korlátozott, ami megnehezíti a működést nagyobb kódbázisokon. Ennek azonban ellenére a generatív AI alkalmazása a kiberfenyegetések esetén meghaladja az észlelést.
A generatív AI eszközök képesek arra, hogy létrehozzanak deepfake-eket, melyek szintetikus médiát alkotnak azáltal, hogy manipulálják vagy kicserélik az egyének hasonmásait. Ez aggodalmakat vet fel a nagyobb léptékű személyazonosítások és a befolyásolási műveletek potenciális lehetősége miatt, amelyek a legitim weboldalakat utánozhatják. Továbbá a generatív AI képes lehet felgyorsítani a kritikus infrastruktúra-facilitásokra irányuló fenyegető alanyok által kezdeményezett felderítési erőfeszítéseket. A nyilvános képek, videók és légi felvételek elemzésével és bővítésével értékes metaadatokat kaphatunk az utánkövető támadások számára nyújtott stratégiai információk szempontjából.
A cikkből kiderül, hogy a mesterséges intelligencia egyre hangsúlyosabb szerepet játszik a kiberbiztonsági környezetben. Ahogy az AI képességei tovább fejlődnek, kiemelten fontos, hogy a szervezetek és az egyének naprakészek legyenek az újonnan felbukkanó fenyegetésekről, és proaktív biztonsági intézkedéseket vezessenek be.
Gyakran Ismételt Kérdések
The source of the article is from the blog macnifico.pt