Proměňující se krajina nařízení umělé inteligence v Indii.

V nedávném vývoji Ministerstvo elektroniky a informační technologie (MeitY) v Indii provedlo významné revize svého poradního postavení k používání umělé inteligence (AI) sociálními mediálními společnostmi. Nové poradní stanovisko, vydané v pátek, nahrazuje předchozí poznámku vydanou 1. března, která popisovala důkladnost, kterou mají dodržovat prostředníci a platformy podle zákona o informačních technologiích z roku 2000 a zásad o informačních technologiích (směrnice pro prostředníky a etický kodex digitálních médií) z roku 2021.

Jednou z hlavních změn v revidovaném poradním stanovisku je odstranění ustanovení, které vyžadovalo, aby prostředníci a platformy získali povolení vlády před nasazením „nedostatečně testovaných“ nebo „náročných“ modelů a nástrojů AI. Nové poradní stanovisko zdůrazňuje, že nedostatečně testované a nevěrohodné modely AI by měly být v Indii dostupné pouze poté, co jsou jasně označeny, aby informovaly uživatele o potenciální nepřesnosti nebo nevěrohodnosti vygenerovaného výstupu.

Dále se revidované poradní stanovisko zaměřuje na to, aby modely AI a algoritmy používané prostředníky nepovolily nějakou zaujatost nebo diskriminaci a nenarušily integritu volebního procesu. Rovněž napovídá prostředníkům, aby využívali vyskakovací okna pro souhlas nebo podobné mechanismy k explicitnímu informování uživatelů o nevěrohodnosti výstupů generovaných pomocí AI.

Dále poradní stanovisko vyžaduje, aby prostředníci nastavili metadata tak, aby umožňovala identifikaci uživatelů či počítačových zdrojů zodpovědných za jakékoli změny provedené ve obsahu. Odborník si všimne, že poradní stanovisko již neobsahuje jazyk související s „prvopočátečním zdrojem“.

Je důležité poznamenat, že revidované poradní stanovisko se vztahuje na osm významných sociálních mediálních prostředníků v Indii, a to konkrétně Facebook, Instagram, WhatsApp, Google/YouTube (pro Gemini), Twitter, Snap, Microsoft/LinkedIn (pro OpenAI) a ShareChat. Nicméně neplatí pro Adobe, Sarvam AI a Ola’s Krutrim AI.

Předchozí poradní stanovisko z 1. března bylo kritizováno mnoha zakladateli startupů, kteří ho považovali za škodlivý krok. Aktualizované poradní stanovisko si klade za cíl najít rovnováhu tím, že stanovuje bezpečnostní zábrany kolem rozsáhlých jazykových modelů a modelů AI používaných prominentními sociálními mediálními platformami, zatímco uznává, že samotné modely nejsou prostředníky nebo významnými sociálními mediálními prostředníky podle stanovených kritérií.

Vývoj umělé inteligence pokračuje a stává se nedílnou součástí našich každodenních životů, je důležité, aby vlády stanovily účinná nařízení, která řeší jak potenciální výhody, tak rizika spojená s umělou inteligencí. Aktualizované poradní stanovisko od MeitY odráží měnící se krajinu regulace umělé inteligence v Indii s důrazem na transparentnost a odpovědnost při používání umělé inteligence sociálními mediálními společnostmi.

FAQs

1. Jaký je účel revidovaného poradního stanoviska k AI v Indii?

Revidované poradní stanovisko si klade za cíl poskytnout směrnice a předpisy pro používání umělé inteligence sociálními mediálními společnostmi v Indii, zajistit transparentnost, odpovědnost a povědomí uživatelů o spolehlivosti výstupů vygenerovaných pomocí AI.

2. Jaké jsou některé hlavní změny v revidovaném poradním stanovisku?

Hlavní změny zahrnují odstranění požadavku na povolení vlády před nasazením nedostatečně testovaných nebo nevěrohodných modelů AI, důraz na označování výstupů generovaných pomocí AI k informování uživatelů o jejich potenciální nepřesnosti a zaměření na prevenci zaujatosti, diskriminace a hrozeb volebnímu procesu.

3. Na které sociální mediální společnosti se poradní stanovisko vztahuje?

Poradní stanovisko se vztahuje na významné sociální mediální prostředníky v Indii, včetně Facebooku, Instagramu, WhatsAppu, Google/YouTube (pro Gemini), Twitteru, Snapu, Microsoft/LinkedInu (pro OpenAI) a ShareChat.

4. Jak se poradní stanovisko vypořádává s problémem deepfakes a dezinformací?

Poradní stanovisko vyžaduje, aby prostředníci označili nebo vložili obsah s jedinečnými metadaty nebo identifikátory s cílem usnadnit identifikaci deepfakes a dezinformací a tím zajistit snadné rozpoznání a eliminaci.

5. Proč bylo předchozí poradní stanovisko kritizováno?

Předchozí poradní stanovisko vyvolalo kritiku zakladatelů startupů, kteří jej považovali za škodlivé pro rozvoj a růst technologií souvisejících s AI v Indii.

Zdroje:
Hindustan Times

Privacy policy
Contact