Зміни в регулюванні штучного інтелекту в Індії

На останньої розробці Міністерства електроніки та інформаційних технологій (MeitY) в Індії відбулися значні перегляди його документації щодо використання штучного інтелекту (AI) соціальними медіа-компаніями. Новий документ, виданий у п’ятницю, замінює попередню ноту, опубліковану 1 березня, де було визначено обов’язки у сфері ділідженсу, які повинні дотримуватися посередники та платформи згідно з Законом про інформаційні технології 2000 року та Правилами про посередників і кодексом етики цифрових медіа 2021 року.

Однією з ключових змін у переглянутій документації є відмінення вимоги, яка вимагала від посередників та платформ отримувати дозвіл уряду перед впровадженням “недотестованих” або “ненадійних” моделей та інструментів штучного інтелекту. Замість цього новий документ підкреслює, що недотестовані та ненадійні моделі штучного інтелекту повинні бути доступні в Індії лише після того, як вони будуть чітко позначені, щоб інформувати користувачів про можливу помилковість або ненадійність отриманих результатів.

Покрокові зміни також спрямовані на забезпечення того, що моделі та алгоритми штучного інтелекту, якими користуються посередники, не дозволяють упередження або дискримінації, і не загрожують цілісності виборчого процесу. Документ також радить посередникам використовувати спливаючі віконця або схожі механізми для явного повідомлення користувачів про ненадійність результатів, згенерованих за допомогою штучного інтелекту.

У долучок, Міністерство зберігає увагу на виявленні та нейтралізації “deepfake” виробів та недостовірної інформації. Воно радить посередникам позначати або вбудовувати вміст унікальними метаданими чи ідентифікаторами, щоб легко його ідентифікувати. Документ охоплює різноманітні форми вмісту, включаючи аудіо, візуальний, тексти та аудіоматеріали. Інтенція полягає у виявленні вмісту, який може потенційно використовуватися як місінформація або deepfake, хоча сам термін “deepfake” залишається невизначеним.

В переглянутій документації також вимагається, щоб посередники налаштовували метадані таким чином, щоб можна було ідентифікувати користувачів чи ресурси комп’ютера, відповідальних за будь-які зміни в змісті. Слід відзначити, що в ній не міститься уже мова, пов’язана із “першовинникуом.”

Важливо зауважити, що переглянута документація застосовується до восьми значущих соціальних медіа-посередників в Індії, а саме Facebook, Instagram, WhatsApp, Google/YouTube (для Gemini), Twitter, Snap, Microsoft/LinkedIn (для OpenAI) та ShareChat. Проте вона не поширюється на Adobe, Sarvam AI та Krutrim AI від Ola.

Попередня документація 1 березня стикнулася з критикою з боку багатьох засновників стартапів, які вважали її шкідливим кроком. Оновлена документація спрямована на забезпечення балансу шляхом встановлення бар’єрів навколо великих мовних моделей та моделей штучного інтелекту, використовуваних видатними платформами соціальних медіа, визначаючи, при цьому, що моделі самі не є посередниками або значущими соціальними медіа-посередниками за визначеними критеріями.

Посібник FAQ

1. Яка мета переглянутої документації щодо штучного інтелекту в Індії?
Переглянута документація спрямована на надання керівництва та загальних правил використання штучного інтелекту соціальними медіа-компаніями в Індії, забезпечуючи прозорість, відповідальність та свідомість користувачів щодо надійності отриманих вихідних даних штучного інтелекту.

2. Які ключові зміни в переглянутій документації?
Ключові зміни включають видалення вимоги отримання дозволу уряду перед впровадженням недотестованих або ненадійних моделей штучного інтелекту, підкреслення позначення штучно створених вихідних результатів для інформування користувачів щодо їх можливої помилковості, та фокус на запобіганні упередженню, дискримінації та загрозам виборчому процесу.

3. На які соціальні медіа-компанії поширюється документація?
Документація застосовується до важливих соціальних медіа-посередників в Індії, включаючи Facebook, Instagram, WhatsApp, Google/YouTube (для Gemini), Twitter, Snap, Microsoft/LinkedIn (для OpenAI) та ShareChat.

4. Як документація вирішує проблему deepfake та місінформації?
Документація вимагає від посередників позначати або вбудовувати вміст унікальними метаданими або ідентифікаторами для спрощеної ідентифікації deepfake та місінформації, забезпечуючи їх легку визначеність та нейтралізацію.

5. Чому була скритика попередньої документації?
Попередня документація отримала критику від засновників стартапів, які вважали її шкідливою для розвитку та зростання технологій, пов’язаних із штучним інтелектом в Індії.

Джерела:
– Hindustan Times

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact