AI által generált média felemelkedése és a szükség a transzparencia iránt

Az Mesterséges Intelligencia (AI) egyre inkább jelen van az életünkben, átalakítva különböző iparágakat és forradalmasítva azokat a módszereket, ahogy az emberek a technológiával interaktálnak. Az AI hatalmas fejlődéseivel azonban egy aggasztó probléma is felütötte a fejét – a deepfake-ek terjedése.

A deepfake-ek manipulált média tartalmakat jelentenek, beleértve a videókat, hangfelvételeket és képeket, melyeket AI technológiával hoztak létre vagy módosítottak meg annak érdekében, hogy becsaphassák a nézőket. Ezek a csaló média tartalmak különböző célokra használhatók, kezdve az dezinformáció terjesztésétől a közvélemény szándékos manipulálásáig. Az erre adott válaszként a közösségi média óriáscég, a Meta – korábban ismert Facebook és Instagram néven – bejelentette, hogy 2024. májusában megkezdi a AI által generált média tartalmak külön jelölését.

Az intézkedés azt célozza, hogy a Meta megnyugtassa felhasználóit és a kormányokat a deepfake-ek potenciális veszélyeiről. A manipulált képeket és hangfelvételeket nem törli, amennyiben azok nem sértik meg a szabályait, inkább jelölésre és kontextualizálásra törekszik. Ez a megközelítés a szólásszabadság védelmének és a manipulált média körüli növekvő aggodalom címén próbál egyensúlyt találni.

Az „AI-val készült” tartalmakat egyértelműen meg fogják jelölni a Meta új jelölési rendszerében, lehetővé téve a felhasználók számára, hogy felismerjék azokat a média tartalmakat, melyeket mesterséges intelligencia segítségével hoztak létre vagy módosítottak meg. Ezenkívül, azok a tartalmak, melyek magas kockázatot jelentenek a közvélemény félrevezetése szempontjából, kiemelt jelölést kapnak.

A transzparencia és további kontextus biztosításával a Meta arra törekszik, hogy hatékonyabban kezelje a deepfake-ek problémáját. Monika Bickert, a Meta Tartalompolitika alelnöke szerint, az új jelölési technikák túlmutatnak a Meta felügyelő testülete által ajánlott manipulált tartalmon. Ez az intézkedés összhangban van az iparági óriások és AI szereplők közötti együttműködésről szóló megállapodással, mely a manipulált média elleni küzdelemben történő közös fellépést szorgalmazza.

Azonban, az szakértők felhívják a figyelmet, hogy bár fontos lépés az AI tartalmak azonosítása, még mindig lehetnek kiskapuk. Nicolas Gaudemet, az Onepoint AI igazgatója kiemeli, hogy az open-source szoftverek például nem mindig alkalmazzák a nagyobb AI szereplők által preferált vizesjel technikát. Ennek a különbségnek a következménye az lehet, hogy alááshatja a jelölési rendszer hatékonyságát.

A Meta jelölési rendszerének bevezetése két fázisban zajlik majd, 2024 májusától kezdve a AI által generált tartalmak jelöléseivel. Azon manipulált média tartalmak eltávolítása, melyek kizárólag az előző politikai szabályokra épülnek, megszűnik júliusban. Az új szabályok szerint az AI által generált tartalmak a platformon maradnak, kivéve, ha megsértik más szabályait, például gyűlöletbeszédet vagy választási beavatkozást.

Az AI által generált média transzparencia és felelősségérzet iránti szükségessége egyre nyilvánvalóbbá válik. Az utóbbi időben megjelent meggyőző deepfake példák aggodalmakat vetettek fel az AI technológia diszinformációs célokra történő lehetséges visszaéléseivel kapcsolatban. A Meta válaszai ezekre az aggodalmakra a probléma kezelésébe vetett elkötelezettséget mutatják, miközben megőrzi az egyensúlyt a szólásszabadság és a felhasználók védelme között.

Ahogyan az AI tovább halad, kritikus fontosságú lesz a társadalom számára, hogy alkalmazkodjon és olyan stratégiákat fejlesszen ki, melyek megvédik ezt a mesterkélt technológiát való visszaéléstől. A transzparencia, az iparági szereplők közötti együttműködés és az őrség szervezetek bevonása elengedhetetlen lesz ahhoz, hogy fenntartsuk a digitális tájak integritását és megbízhatóságát.

Gyakran Ismételt Kérdések (GYIK)

The source of the article is from the blog jomfruland.net

Privacy policy
Contact