Cikk címe: Az utóbbi időben feltűnt fenyegetés: Az ellenfelek kihasználják a generatív mesterséges intelligenciát a kibertámadásokhoz

Microsoft legújabb észlelése és megszakítása az Egyesült Államok ellenfele által használt generatív mesterséges intelligencia (AI) által végrehajtott kibertámadásokkal kapcsolatban rávilágított egy új fenyegetésre a kiberbiztonsági tájrban. Habár ezeket az ellenséges csoportok által alkalmazott technikákat nem lehetett újszerűnek nevezni, megmutatták a nagy nyelvi modellek potenciálját az offenzív képességeik jelentős növelésére.

A Microsoft az OpenAI partnerével együttműködve felfedezte azokat az eseteket, amikor Irán, Észak-Korea, Kína és Oroszország kísérleteket tettek a generatív AI kihasználására offenzív kibertámadásokhoz. Kiemelendő, hogy a Microsoft hangsúlyozta ezeknek a támadásoknak a nyilvánosságra hozatalának fontosságát, még akkor is, ha még csak korai stádiumban vagy inkrementális lépések voltak. Céljuk az volt, hogy felhívják a figyelmet a geopolitikai riválisok által a hálózatok megsértésére és befolyásoló műveletek végrehajtására használt nagy nyelvi modellek terjedésére.

A nagy nyelvi modellek, mint például az OpenAI ChatGPT-je, drasztikusan megváltoztatták a macska-egér játékot a kiberbiztonságban. Míg a gépi tanulást eredetileg a kiberbiztonsági cégek a védelem érdekében használták, most már a bűnözők és az offenzív hackerek is átveszik. A Microsoft termékinvestálása az OpenAI-ba alátámasztja ennek a fejleménynek a fontosságát.

A Microsoft az ellenséges csoportok kibertevékenységének megszakítása során felfedezte a generatív AI kihasználását különböző célokra. Például Észak-Korea Kimsuky csoportja kihasználta ezeket a modelleket külföldi gondolkodóházak kutatására és tartalom létrehozására speer-phishing kampányokhoz. Irán Forradalmi Gárda nagy nyelvi modelleket használt a szociális mérnöki technikák fejlesztéséhez, a szoftverhibák hibaelhárításához és a kompromittált hálózatokban történő észlelés elkerülésének tanulmányozásához.

Az orosz GRU katonai egység Fancy Bear a konfliktussal összefüggő műhold- és radar technológiák kutatására összpontosított Ukrajnában. Eközben a kínai kibercsapásmérési csoportok Aquatic Panda és Maverick Panda a modellekkel foglalkoztak annak vizsgálatára, hogyan segíthetnek a nagy nyelvi modellek a technikai műveleteik kibővítésében és különböző érzékeny témákkal kapcsolatos információk begyűjtésében.

A Microsoft eredményei az OpenAI értékelésével egyeztek meg, amely szerint a jelenlegi ChatGPT modelljüknek korlátozott képességei vannak a kártékony kiberbiztonsági feladatok ellátásában, amit nem AI-alapú eszközökkel is el lehet érni. Azonban nem lehet alábecsülni a jövőbeni AI és a nagy nyelvi modellek fejlesztésével és bevetésével járó potenciális kockázatokat a támadó kibertevékenységek terén.

Ahogyan a szakértők figyelmeztettek, mind Kína, mind az mesterséges intelligencia jelentős veszélyeket és kihívásokat jelent. A mesterséges intelligencia felelős fejlesztése biztonsági szempontok figyelembevételével alapvető fontosságú, mivel a nemzetállamok által egyre inkább használt nagy nyelvi modellek elkerülhetetlenül erős fegyverekké válnak.

A kritikusok felhívták a figyelmet a ChatGPT és hasonló modellek sietett kiadására, és azt állítják, hogy a biztonság nem volt megfelelő prioritást képezve fejlesztésükkor. Néhány kiberbiztonsági szakember kritizálta a Microsoft megközelítését is, és azt javasolta, hogy inkább a biztonságosabb alapmodellalkotásra összpontosítson, ahelyett, hogy védekező eszközöket értékesítsenek a hozzájárulásukkal létrejött sebezhetőségek kezelésére.

Az ellenséges kibertámadások észlelése és megszakítása rávilágít arra, hogy növelni kell a résvigyázatosságot és a biztonsági intézkedéseket a fejlődő AI technológiák előtt. Ahogy az AI és a nagy nyelvi modellek tovább fejlődnek, mind a védelmi, mind az offenzív szereplőknek alkalmazkodniuk kell stratégiáikat a felmerülő fenyegetések potenciális kockázatainak csökkentése érdekében.

Gyakran Ismételt Kérdések:

K: Mit talált legutóbb a Microsoft a kiberbiztonsági tájban?
V: A Microsoft generatív mesterséges intelligencia (AI) által végrehajtott kibertámadásokat észlelt és megszakított, amelyeket az Egyesült Államok ellenfelei hajtottak végre.

K: Mely országok próbáltak kihasználni a generatív AI-t offenzív kibertámadásokra?
V: Irán, Észak-Korea, Kína és Oroszország azonosították a résztvevő országoknak.

K: Mi a nagy nyelvi modellek jelentősége a kiberbiztonság terén?
V: A nagy nyelvi modellek, mint például az OpenAI ChatGPT-je, átalakították a kiberbiztonság területét, új eszközöket és képességeket nyújtva mind a védelmezők, mind az támadók számára.

K: Hogyan használták ezek az ellenséges csoportok a generatív AI-t?
V: Különböző célokra használták, ideértve célpontok kutatását, tartalom létrehozását spear-phishing kampányokhoz, a szociális mérnöki technikák fejlesztését, a szoftverhibák hibaelhárítását és a kompromittált hálózatokban való észlelés elkerülésének tanulmányozását.

K: Mire egyeztek a Microsoft eredményei?
V: A Microsoft eredményei megegyeztek az OpenAI értékelésével, amely szerint a ChatGPT modellnek korlátozott képességei vannak a kártékony kiberbiztonsági feladatok ellátásában, amit nem AI-alapú eszközökkel is el lehet érni.

K: Milyen kockázatokkal járnak az AI fejlesztése és bevetése az offenzív kibertevékenységek terén?
V: A kockázatok jelentősek, mivel az AI és a nagy nyelvi modellek a nemzetállamok kezében potentáicense erős fegyverekké válhatnak.

K: Milyen kritikák érték a ChatGPT és hasonló modellek sietett kiadása miatt?
V: A kritikusok szerint a biztonságot nem megfelelően prioritizálták a fejlesztés során, és a kiberbiztonsági szakemberek azt javasolják, hogy inkább a biztonságosabb alapmodell-kialakításra összpontosítsanak, ahelyett, hogy védekező eszközöket értékesítsenek.

Definíciók:

– Generatív mesterséges intelligencia (AI): Az AI technológia, amely képes új tartalmat generálni, például szöveget vagy képeket különböző minták és példák alapján.
– Nagy nyelvi modellek: Az AI modellek, amelyek nagy mennyiségű szöveges adatokon tréningezve koherens és kontextuálisan releváns nyelvet képesek generálni.
– Offenzív kibertámadások: Kiber- vagy hálózattámadási tevékenységek, amelyek a hálózatok vagy rendszerek károsítását, kihasználását vagy jogosulatlan hozzáférés megszerzését célozzák.
– ChatGPT: Az OpenAI által fejlesztett nagy nyelvi modell, amely képes emberi beszédhez hasonló szöveget generálni párbeszédalapú környezetben.
– Speer-phishing kampányok: Célszemélyek vagy szervezetek ellen irányuló személyre szabott és meggyőző üzenetekkel végzett célzott adathalászat.

Javasolt kapcsolódó linkek:

– A Microsoft kiberbiztonsági blogja
– Az OpenAI honlapja
– Kiberbiztonsági és Infrastruktúra Biztonsági Ügynökség (CISA)

[beágyaz]https://www.youtube.com/embed/4QzBdeUQ0Dc[/beágyaz]

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact