Állami Pénzből Támogatott Hackerek Kihasználják az AI Eszközöket: Az Kibertér Kémkedés Új Korszaka

Egy progresszív és riasztó fejleményben a Microsoft felfedte, hogy Oroszország, Kína és Irán állami támogatású hackercsoportjai hogyan használják az OpenAI által biztosított mesterséges intelligencia (AI) eszközök erejét. Ezek a csoportok, köztük Oroszország katonai hírszerzése, Irán Forradalmi Gárda, valamint Kína és Észak-Korea kormányai, nagy nyelvi modelleket használnak, mint például az OpenAI ChatGPT-t, hogy fokozzák kibertér kémkedési kampányaikat.

A nyugtalanító trend ellensúlyozására a Microsoft határozott álláspontot foglalt el, és esküt tett arra, hogy megtiltja az állami támogatású hackercsoportoknak az AI termékeik használatát. Helyi törvények vagy szolgáltatásfeltételek ellenére a Microsoft célja, hogy korlátozza ezeknek az előrehaladott technológiáknak a hozzáférését annak érdekében, hogy megakadályozza azok visszaéléseit és az érzékeny információk esetleges veszélyeztetését.

Idézve a Microsoft Ügyféltámogatásért Felelős Alelnökét, Tom Burtot, a cég határozott álláspontját fejezte ki, mondván: „Csak nem… akarjuk, hogy ezek a csoportok hozzáférjenek ehhez a technológiához.”

Ahogy az elvárható volt, az érintett országok eltérően reagáltak az állításokra. Míg a orosz, észak-koreai és iráni tisztségviselők nem szolgáltattak azonnali kommentárokat, Kína amerikai nagykövetségének szóvivője, Liu Pengyu, megcáfolta az állításokat. Pengyu kifejezte Kína határozott ellenvetését az alaptalan támadások ellen, és hangsúlyozta támogatásukat az AI technológia felhasználására az emberiség jobbítása érdekében, de a biztonság, megbízhatóság és ellenőrizhetőség elengedhetetlen szempontként való figyelembevételével.

Ezen állami támogatást élvező hackerek által kihasznált AI eszközök felfedése fokozza az aggodalmakat a technológia lehetséges következményei és visszaélései miatt. A nyugati országok internetbiztonsági tisztségviselői már tavaly óta figyelmeztettek az AI eszközök rosszindulatú szereplők általi visszaéléseire.

Bár az OpenAI és a Microsoft említették, hogy a hackerek az AI eszközöket „korai stádiumban” és „inkrementálisan” használták, kiemelendő az alapvető kockázatok felismerése. A Microsoft tisztázta, hogy ezek a hackercsoportok nagy nyelvi modelleket használtak különböző célokra. Az orosz hackerek a katonai technológiák kutatására összpontosítottak, különösen azon műholdképességekre, melyek relevánsak a hadműveletekre Ukrajnában. Az észak-koreai hackerek a szakértők megtévesztését próbálták meg elérni olyan tartalom generálásával, ami értékes információkat tudott kinyerni. Közben az iráni hackerek azért használták ezeket a modelleket, hogy meggyőzőbb e-maileket írjanak, azzal a szándékkal, hogy feminista vezetőket veszélyes webhelyekre csábítsanak.

Ezenkívül a kínai állami támogatású hackerek nagy nyelvi modellekkel kísérleteztek, hogy válaszokat kapjanak olyan kérdésekre, mint az ellenséges hírszerzési ügynökségek, az online biztonsági kérdések és jelentős személyek.

Bár a tevékenység teljes skálája és a tiltott felhasználók száma nem nyilvános, a Microsoft proaktív tiltása az államok által támogatott hackercsoportok ellen hangsúlyozza az AI gyors fejlődésével és bevetésével járó potenciális veszélyeket. Ahogy Tom Burt helyesen rámutatott, „Ez a technológia új és rendkívül erőteljes.”

Amint a világ az egyre fejlődő kibertámadások tájával küzd, létfontosságú, hogy a kormányok, technológiai cégek és magánszemélyek egyaránt együttműködjenek és kitartóan dolgozzanak az erős védelem kiépítése érdekében az állami támogatású kibertér kémkedés egyre növekvő bonyolultságával szemben. Az AI felelős és etikus használata elsődleges prioritásnak kell lennie a bizalom, biztonság és adatvédelem fenntartása érdekében a digitális korban.

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact