Megfékezhető-e az AI-alapú dezinformáció az 2024-es választásokon?

Amint Nagy-Britannia felkészül a helyi és általános választásokra 2024-ben, a kiberbiztonsági szakértők vészharangot húznak a állami támogatással történő kiberterrorista támadások és dezinformációs kampányok által jelentett jelentős kockázatok miatt. Az aggodalomra okot ad az eszközölt mesterséges intelligencia (AI) használata ezekben a rosszindulatú tevékenységekben, ami különösen aggasztónak ígérkezik. Ezekhez a kiberfenyegetésekhez és dezinformációs kampányokhoz hozzájárul a növekvő megélhetési költségek és bevándorlási feszültségekkel járó egyéb problémák, ami a politikai tájat még bonyolultabbá teszi.

Az választások előtti hónapokban várhatóan megnő a kiberbiztonsági kockázatok mennyisége. Hasonló esetek előfordultak már korábban is, mint például az 2016-os amerikai elnökválasztás és az Egyesült Királyság Brexit szavazása, amelyek mind meg lett áldva dezinformáció terjedésével a közösségi média platformokon keresztül. Állami támogatással kapcsolatba hozható csoportokat, amelyeket állítólag Oroszországhoz kötöttek, ezekért a zavarokért tették felelőssé. Az idő múlásával az állami szereplők egyre jártasabbá váltak a választási eredmények manipulálásában rutin támadásaik révén különböző országokban.

Az elmúlt időszakban Nagy-Britannia azzal vádolta meg a kínai APT 31 néven ismert állami támogatású hekker csoportot, hogy megpróbált hozzáférni az törvényhozók e-mail fiókjaihoz. Bár sikertelen voltak ezek a próbálkozások, ez az esemény kiemeli a növekvő aggodalmat az állami támogatással végrehajtott hekkerkedési tevékenységek miatt. Válaszul a vádakra London szankciókat szabott ki kínai személyekre és egy olyan technológiai vállalatra, amelyet a APT 31-hez kapcsoltak. Az Egyesült Államok, Ausztrália és Új-Zéland is bevezette saját szankcióit, bár Kína tagadta ezeket az állításokat.

Az AI-alapú dezinformáció az 2024-es választások egyik fontos kiberbiztonsági fenyegetése. A szakértők előrejelzik, hogy idén felerősödnek a dezinformációs kampányok az AI eszközök egyre szélesebb körű elérhetősége miatt. Szintetikus képek, videók és audiofájlok, amelyeket általában „deep fake”-nek neveznek, feltehetően gyakoriak lesznek, ahogy az emberek nagyobb hozzáférést kapnak az AI-generált tartalom előállításához. Fenyegető szereplők, ide értve a nemzeteket és a kibertámadókat is, várhatóan az AI-t fogják használni identitásalapú támadások végrehajtására, mint például az adathalászat, a társadalmi mérnökölködés, a zsarolóvírusok és a szállítási lánc kompromittálás, célzva a politikusokat, a kampánymunkatársakat és a választással kapcsolatos intézményeket. Az AI és botok által hajtott tartalom terjedése is hozzájárul majd a dezinformáció sokkal nagyobb arányú elterjedéséhez, mint korábbi választási ciklusokban.

A kiberbiztonsági közösség hangsúlyozza annak szükségességét, hogy növeljék a tudatosságot és az nemzetközi együttműködést az ilyen AI által generált dezinformációk felszámolására. Adam Meyers, mint ellenszerelemző szakértő, az AI által meghajtott dezinformációkat az 2014-es választások fontos kockázatának találja. Figyelmeztet, hogy ellenséges államok, mint Kína, Oroszország és Irán, képesek az AI-t és a deep fake-eket használni meggyőző narratívák kidolgozására, kihasználva a megerősítési elfogultságokat, ami súlyos veszélyt jelent a demokratikus folyamatra.

Az AI másik kihívást jelent azzal, hogy csökkenti a küszöböket a kibertámadók számára. A csaló e-mailek, amelyek AI eszközöket használnak meggyőző üzenetek létrehozására már megjelentek. A hackerek az AI modelleket is kihasználják, amelyeket a közösségi médiában található adatokkal tréneltek, hogy személyre szabott támadásokat indítsanak. A hamis AI által generált audio klippek keringése, hasonlóan ahhoz, ami ellen a Sir Keir Starmer ellen, az ellenzéki Munkáspárt vezetője ellen 2023 októberében irányult, aláhúzza a növekvő aggodalmat a deep fake-ekkel kapcsolatban és azok hatásának körülöttük.

Ahogy a deep fake technológia egyre fejlettebbé válik, a tech cégek folyamatos csatában vannak annak visszaszorítására. Most már az AI-t is használják deep fake-ek felismerésére, de a valóság és a manipuláció határvonala egyre homályosabbá válik. Bizonyos jelek, mint például a AI hibákból eredő eltérések, segíthetnek a manipulált tartalom azonosításában. Például egy AI által generált videóban, ha hirtelen eltűnik egy kanál, jelenthet csalást.

Ahogy Nagy-Britannia közeledik a választásaihoz, az ipari szakértők hangsúlyozzák az információ hitelességét ellenőrzésének fontosságát, hogy szembeszálljanak az állami támogatású kiberterrorista támadások és dezinformációk kockázataival. Az AI használata ezen rosszindulatú tevékenységekben jelentős kihívást jelent, így alapvető fontosságú, hogy az egyének, szervezetek és kormányok fenn tartásra figyeljenek, hogy megőrizzék a demokratikus folyamat integritását.

GYIK

The source of the article is from the blog yanoticias.es

Privacy policy
Contact