Előre felhívjuk a figyelmet a mesterséges intelligencia által hordozott veszélyekre

Az előző cikkben bemutatott esettanulmányok alapján egyértelmű, hogy a mesterséges intelligencia (AI) jelenlegi formájában jelentős kockázatot hordozhat a digitális biztonság szempontjából. Az AI-t használó rosszindulatú szereplők képesek önmaguk felerősítésére alkalmas kártékony szoftverek fejlesztésére, melyek képesek kijátszani a hagyományos észlelési módszereket.

A Recorded Future kiberbiztonsági cég egy jelentése kiemeli a generatív AI potenciálját a string-alapú YARA szabályok kijátszására, melyeket a kártékony szoftverek észlelésére használnak. Az LLM-generált kód átalakításával alacsonyabb lehet az észlelési arány, ami megnehezíti a biztonsági rendszerek számára a rosszindulatú szoftverek azonosítását és megállítását. Ez a felfedezés rávilágít az AI technológiák aggasztó lehetőségeire a fenyegető személyek kezében.

Az kutatásban a STEELHOOK nevű, az APT28 hackercsoporttal összefüggésbe hozott kártékony szoftvert adták be egy LLM-hez együtt a YARA szabályokkal. A cél az volt, hogy módosítsák a kártékony szoftver forráskódját úgy, hogy megőrizze funkcionalitását, miközben kijátsza az észlelést. Az LLM-generált kód sikeresen kijátszotta a egyszerű string-alapú YARA szabályokat, ezáltal bemutatva az AI potenciális kihasználását a kiberbiztonsági intézkedések kijátszására.

Azonban meglehetős korlátai vannak ennek az általános megközelítésnek. Az AI modell egy időben feldolgozható szövegmennyisége korlátozott, ami megnehezíti a működést nagyobb kódbázisokon. Ennek azonban ellenére a generatív AI alkalmazása a kiberfenyegetések esetén meghaladja az észlelést.

A generatív AI eszközök képesek arra, hogy létrehozzanak deepfake-eket, melyek szintetikus médiát alkotnak azáltal, hogy manipulálják vagy kicserélik az egyének hasonmásait. Ez aggodalmakat vet fel a nagyobb léptékű személyazonosítások és a befolyásolási műveletek potenciális lehetősége miatt, amelyek a legitim weboldalakat utánozhatják. Továbbá a generatív AI képes lehet felgyorsítani a kritikus infrastruktúra-facilitásokra irányuló fenyegető alanyok által kezdeményezett felderítési erőfeszítéseket. A nyilvános képek, videók és légi felvételek elemzésével és bővítésével értékes metaadatokat kaphatunk az utánkövető támadások számára nyújtott stratégiai információk szempontjából.

A cikkből kiderül, hogy a mesterséges intelligencia egyre hangsúlyosabb szerepet játszik a kiberbiztonsági környezetben. Ahogy az AI képességei tovább fejlődnek, kiemelten fontos, hogy a szervezetek és az egyének naprakészek legyenek az újonnan felbukkanó fenyegetésekről, és proaktív biztonsági intézkedéseket vezessenek be.

Gyakran Ismételt Kérdések

The source of the article is from the blog macnifico.pt

Privacy policy
Contact