Az Indiai Kormány és a Tech Óriások Együttműködése az Mesterséges Intelligencia Által Létrehozott Félrevezető Információk Ellen

Az Indiai kormány szoros együttműködésbe lépett a nagy technológiai vállalatokkal annak érdekében, hogy kezelje az Mesterséges Intelligencia által generált félrevezető információk növekvő aggodalmát a digitális térben. Az Unió IT minisztere, Vaishnaw megerősítette a kormányzati tisztségviselők és a Google, a Meta (korábban Facebookként ismert) és más prominens cégek képviselői között tartott megbeszéléseket, miután az érdeklődést kifejezték a Minttől érkező érdeklődések.

Felismerve a megelőző intézkedések szükségességét, mind a Google, mind a Meta útmutatókat tett közzé az AI által módosított tartalmak és hirdetések kezelésére különböző platformokon, mint például a ChatGPT, a Facebook, a Google Keresés, az Instagram, a WhatsApp és a YouTube. Ezek az irányelvek hangsúlyozzák az AI-által generált tartalmak címkézésének fontosságát, valamint az AI korlátozott használatát a politikai személyekre, pártokra és véleményekre vonatkozó keresési eredmények előállításában a 2024-es általános választásokkal kapcsolatban.

Az Adobe által létrehozott Photoshop alkotója is elővigyázatos megközelítést alkalmazott Firefly nevű generatív eszközével kapcsolatban. Andy Parsons, az Adobe tartalomhitelesség kezdeményezésének vezető igazgatója kiemelte a cég elkötelezettségét a képi manipuláció vagy kreáció megelőzése érdekében a politikai kampányokban.

Emellett megbeszélések zajlottak az intermediáriusok felelősségéről az 2021-es Információs Technológiát (Intermediárius Irányelvek és Digitális Média Etikai Kódex) Szabályok alapján. Az illetékesek szerint ezek az intermediáriusok büntetőeljárással szembesülhetnek, ha nem tesznek eleget az AI által segített félrevezető információk terjedésének megfékezése érdekében. Ez a aggodalom az online tartalmak AI általi széles körű elterjedéséből ered, amelyre a technológiai vállalatok vízjelezés és metaadat címkézési technikákat választanak.

Az Indiai kormány képessége, hogy támogassa bizonyos kulcsszavak cenzúráját, növekvő megértést tükröz az AI hatásáról a közbeszédre. Az egyre növekvő tudatosság segíthet a kormányzati döntéshozatalban az AI által hajtott félrevezető információkkal szembeni éber maradásban India demokratikus társadalmában.

Februárban egy jelentős müncheni Biztonsági Konferencián aláírták a ‘Tech Accord a Mesterséges Intelligencia Csalásos Felhasználásával szemben az 2024-es Választásokon’. Ez az egyezmény 20 céget vont be, többek között az Adobe-t, a Google-t, a Meta-t, a Microsoftot, az OpenAI-t és az X-et (korábban Twitter). A Tech Accord különböző intézkedéseket javasolt, mint például technológiák bevezetését az AI-vel kapcsolatos kockázatok enyhítésére, AI modellek értékelését és az ellenállóképesség elősegítését ágazatonként.

Az választásokkal kapcsolatos problémák kezelésére vonatkozó konkrét stratégiákat kifejtették a Google és a Meta későbbi nyilatkozatai. A Google vállalta, hogy nyilvánosságra hozza az AI használatát a politikai hirdetésekben, címkézze az AI által generált tartalmakat a YouTube-on, és korlátozza az általános választásokkal kapcsolatos keresési lekérdezéseket a Gemini, az AI platformja esetében. A Meta viszont bejelentette 12 tényellenőrző csapat működését az AI által generált tartalmak független ellenőrzésére. A módosított politikai tartalom korlátozottá vált a Meta platformjain a hatásainak minimalizálása érdekében.

Bár további információk iránti kérésekre sem a Google, sem a Meta nem válaszolt a Mint ügyében a kormányzati tisztségviselőkkel és miniszterekkel tartott találkozók kapcsán.

Jogi és szakpolitikai szakértők felhívták a figyelmet arra, hogy az 2021-es IT-szabályokban és az Indiai Büntető Törvénykönyvben foglalt meglévő záradékok mind a nagy technológiai vállalatokat, mind a felhasználókat felelőssé tarthatják az AI által támogatott félrevezető információk népszerűsítése miatt. Ha ezek a vállalatok nem előzik meg tudatosan az ilyen tartalmak terjedését a platformjaikon, akkor felelősségre vonhatók lehetnek az 2021-es IT-szabályok 7. szabálya alapján. A platformok és az intermediáriusok egyértelmű meghatározásának hiánya kihívást jelent a hatékony AI fenyegetések leküzdése és a felelősség és felelősség meghatározásában.

GYIK

1. Mi az AI által generált félrevezető információ?
Az AI által gerált félrevezető információ olyan hamis vagy félrevezető tartalom, amelyet mesterséges intelligencia technológiák segítségével hoznak létre vagy manipulálnak.

2. Hogyan kezelik a tech cégek az AI által generált félrevezető információt?
A Google és a Meta olyan intézkedéseket hajtanak végre, mint az AI által generált tartalmak címkézése, az AI használatának korlátozása bizonyos politikai témájú keresési eredmények előállításában, valamint az AI által generált tartalmak hitelesítése.

3. Mi a Tech Accord a Mesterséges Intelligencia Csalásos Felhasználásával szemben az 2024-es Választásokon?
A Tech Accord, amelyet több cég, beleértve az Adobe, a Google, a Meta, a Microsoft, az OpenAI és az X is aláírt, az 2024-es választásokon a mesterséges intelligencia csalásos felhasználásának kezelését tűzte ki célul. A technológiák bevezetését javasolja a kockázatok enyhítésére, az AI modellek értékelésére és az ellenállóképesség elősegítésére ágazatonként.

4. Hogyan tarthatóak felelősségre az intermediáriusok az AI által támogatott félrevezető információ miatt?
Az 2021-es Információs Technológia (Intermediárius Irányelvek és Digitális Média Etikai Kódex) Szabályok értelmében az intermediáriusok bűnüldözési eljárásnak vetődhetnek alá, ha nem tesznek eleget az ő platformjaikon az AI által támogatott félrevezető információ terjedésének megfékezéséért.

5. Milyen kihívások merülnek fel az AI fenyegetései leküzdése során?
Az egyik fő kihívást az intermediáriusok és platformok egyértelmű meghatározásának hiánya jelenti, ami nehézségeket okoz a felelősség és felelősség meghatározásában az AI fenyegetések tekintetében.

Az Indiai kormány és a nagy technológiai cégek együttműködése az AI által generált félrevezető információk kezelése érdekében tükrözi ennek a problémának a növekvő aggasztottságát a digitális térben. Ezek a cégek, beleértve a Google-t és a Meta-t, már közzétettek irányelveket az AI által módosított tartalmakkal és hirdetésekkel kapcsolatosan a platformjaikon, mint például a ChatGPT, a Facebook, a Google Keresés, az Instagram, a WhatsApp és a YouTube. Ezek az irányelvek hangsúlyozzák az AI-által generált tartalmak címkézését és az AI korlátozott alkalmazását olyan keresési eredmények előállításában, amelyek politikai személyekre, pártokra és véleményekre vonatkoznak a közelgő 2024-es általános választásokkal kapcsolatban. Ez a proaktív megközelítés jelzi az AI potenciális hatásának elismerését a közbeszédre.

Az Adobe, a Photoshop alkotója is elővigyázatos megközelítést alkalmaz a Firefly nevű generatív eszközével kapcsolatban. A cég elkötelezett a képi manipuláció vagy hamis tartalom előállításának megelőzése mellett a politikai kampányokban. Ez mutatja az iparág tudatosságát az etikai aggályok irányában, amelyek az AI használatával kapcsolatban a félrevezető vagy hamis tartalom előállítására vonatkoznak.

Felmerült a beszéd közvetítők felelősségéről is a 2021-es Információs Technológiával (Intermediárius Irányelvek és Digitális Média Etikai Kódex) Szabályok alapján. Ha ezek a beszéd közvetítők nem tesznek eleget az AI által támogatott félrevezető információ terjedésének megfékezése érdekében, bünüldözési következményekkel kerülhetnek szembe. Ez az aggodalom az AI széles körű elterjedéséből ered, online tartalmakban. A technológiai cégek azon dolgoznak, hogy megállapítsák azonosítani és kezelni az AI által generált tartalmakat a vízjelzés és a metaadat címkézése technikákkal.

Az Indiai kormánynak való képessége a kulcsszavak cenzúrájának támogatására jelentős lépés az AI hatásának megértésében a közbeszédben. A világszerte kormányok felismerik, hogy nincs egyetlen megoldás a félrevezető információk elleni küzdelemben, különösen az AI befolyásoló ereje tekintetében. Ez a növekvő tudatosság segítheti a kormányzati döntések meghozatalát a figyelemmel tartáshoz az AI által hajtott félrevezető információkkal szemben a demokratikus társadalmakban, mint például India.

Az ügy további kezeléséhez a müncheni Biztonsági Konferencia az ‘Tech Accord a Mesterséges Intelligencia Csalásos Felhasználásával szemben az 2024-es Választásokon’ aláírásával nyert jelentős szerepet. Ez az egyezmény 20 vállalatot, köztük az Adobe-t, a Google-t, a Meta-t, a Microsoftot, az OpenAI-t és az X-et (korábban Twitter), különböző intézkedéseket javasolt, mint például technológiák bevezetése az AI-kockázatok enyhítése érdekében, az AI modellek értékelése és az ellenállóképesség elősegítése ágazatonként.

Az választásokkal kapcsolatos problémák kezelésére vonatkozó konkrét stratégiákat kifejtették a Google és a Meta későbbi nyilatkozatai. A Google vállalta, hogy nyilvánosságra hozza az AI használatát a politikai hirdetésekben, címkézze az AI által generált tartalmakat a YouTube-on, és korlátozza az általános választásokkal kapcsolatos kereséseket a Gemini, az AI platformja esetében. A Meta viszont bejelentette 12 tényellenőrző csapat működését az AI által generált tartalmak független ellenőrzésére. A módosított politikai tartalom korlátozottá vált a Meta platformjain a hatásainak minimalizálása érdekében.

Bár a Mint további információkért folyamodott, sem a Google, sem a Meta nem reagált a a kormányzati tisztségviselők és miniszterek találkozóival kapcsolatos kérésekre.

Jogi és szakpolitikai szakértők rámutattak arra, hogy az IT szabályok 2021, valamint az Indiai Büntető Törvénykönyv meglévő klauzulái mind a Nagy Tech vállalatokat, mind a felhasználókat felelőssé tehetik az AI által támogatott félrevezető információ promótálásáért. A késlekedés az ilyen tartalmak proaktív kezelésében a platformjaikon a 2021-es IT szabályok 7. klauzulasára hivatkozva felelőssé tételt hozhat maga után. Az közvetítők és platformok egyértelmű meghatározásának hiánya kihívást jelent az AI fenyegetések hatékony leküzdése és a felelősség és felelősség meghatározása tekintetében.

The source of the article is from the blog be3.sk

Privacy policy
Contact