Урядове співробітництво з гігантами технологій для боротьби з переплинною інформацією, згенерованою штучним інтелектом

Уряд Індії уклав партнерські відносини з провідними технологічними компаніями з метою вирішення зростаючої проблеми переплинної інформації, згенерованої штучним інтелектом у цифровому просторі. Міністр ІТ Чернюк підтвердив проведення зустрічей між урядовцями та представниками таких компаній, як Google, Meta (раніше відома як Facebook) та іншими визначними фірмами, у відповідь на запити від Mint.

Визнавши необхідність запобіжних заходів, як Google, так і Meta опублікували керівні принципи щодо роботи з вмістом і рекламою, зміненими за допомогою штучного інтелекту, на різних платформах, таких як ChatGPT, Facebook, Google Search, Instagram, WhatsApp та YouTube. Ці принципи підкреслюють важливість позначання вмісту, згенерованого штучним інтелектом, та обмеження використання ШІ для отримання результатів пошуку, пов’язаних з політичними діячами, партіями та думками щодо майбутніх загальних виборів 2024 року.

Компанія Adobe, розробник Photoshop, теж вживає обережний підхід щодо свого генеративного інструменту під назвою Firefly. Енді Парсонс, старший директор ініціативи щодо автентичності вмісту від Adobe, підкреслив, що компанія прагне попередити маніпуляції або створення зображень для політичних кампаній.

Понадто, відбулися обговорення щодо відповідальності посередників, за винятком Adobe, згідно з Правилами про інформаційні технології (Правила про посередників та кодекс етики цифрових медіа), 2021 року. За словами урядовців, ці посередники можуть стати об’єктом переслідування, якщо не приберуть з поширення підтриманої штучним інтелектом недостовірної інформації. Ці засоби виникають з широкого поширення штучного інтелекту у вмісті онлайн-платформ, що провокує технологічні фірми вживати методи, такі як водяні знаки та тегування метаданих.

Здатність уряду Індії підтримувати цензуру певних ключових слів свідчить про розуміння впливу штучного інтелекту на громадський діалог. Уряди по всьому світу усвідомлюють, що немає єдиного рішення для боротьби з недостовірною інформацією, особливо з урахуванням впливу штучного інтелекту. Таке усвідомлення може направляти дії урядів у підтримці боротьби з інформацією, згенерованою штучним інтелектом, у демократичних суспільствах, таких як Індія.

У лютому на значній конференції, що називається Мюнхенською конференцією з питань безпеки, було підписано “Технологічний договір для боротьби з обманливим використанням ШІ на виборах 2024 року”. У цьому договорі взяли участь 20 компаній, включаючи Adobe, Google, Meta, Microsoft, OpenAI та X (раніше Twitter). Договір TEch Accord запропонував різноманітні заходи, такі як впровадження технологій з метою зменшення ризиків ШІ, оцінка моделей ШІ та зміцнення стійкості у різних галузях.

Конкретні стратегії для вирішення питань, пов’язаних з виборами, були визначені в наступних розкриттях від Google та Meta. Google зобов’язався розкривати використання ШІ у політичній рекламі, позначати вміст, створений ШІ на YouTube та впроваджувати обмеження на запити, пов’язані з виборами, на Gemini, своїй генеративній платформі ШІ. Meta, з іншого боку, оголосила про роботу 12 команд для факт-чекінгу для незалежної перевірки вмісту, створеного за допомогою ШІ. Змінений політичний контент був обмежений на платформах Meta, щоб зменшити його поширення.

Незважаючи на прохання про додаткову інформацію, ані Google, ані Meta не відповіли на запити Mint щодо їх зустрічей з урядовцями та міністрами.

Юридичні та політичні експерти зауважили, що існуючі клозетки в Правилах про ІТ, 2021 року, та Індійському кримінальному кодексі можуть покласти відповідальність як на великі технологічні підприємства, так і на користувачів за поширення інформації, згенерованої ШІ. Невдале попередження такого вмісту на їх платформах може призвести до відповідальності за правилом 7 Правил про ІТ, 2021 року. Відсутність чіткого визначення для платформ та посередників становить виклик для успішної боротьби з загрозами ШІ та встановлення відповідальності.

**ЧЗВ**

1. Що таке переплинна інформація, згенерована штучним інтелектом?
Переплинна інформація, згенерована штучним інтелектом, – це неправдивий або вводячий в оману вміст, створений або змінений за допомогою технологій штучного інтелекту.

2. Як технологічні компанії займаються переплинною інформацією, згенерованою штучним інтелектом?
Технологічні компанії, такі як Google і Meta, впроваджують заходи, такі як позначення вмісту, створеного ШІ, обмеження використання ШІ в результатах пошуку з певних політичних тем та перевірка автентичності вмісту, створеного ШІ.

3. Що таке Технологічний договір для боротьби з обманливим використанням штучного інтелекту на виборах 2024 року?
Технологічний договір, підписаний декількома компаніями, включаючи Adobe, Google, Meta, Microsoft, OpenAI та X, має на меті боротьбу з обманливим використанням штучного інтелекту на виборах. Він пропонує впровадження технологій для зменшення ризиків, оцінки моделей штучного інтелекту та зміцнення стійкості у різних галузях.

4. Як посередники можуть бути притягнуті до відповідальності за переплинну інформацію, спричинену штучним інтелектом?
Згідно з Правилами про інформаційні технології (Правила про посередників та кодекс етики цифрових медіа) 2021 року, посередники можуть бути притягнуті до відповідальності, якщо вони не стримують поширення переплинної інформації, створеної штучним інтелектом на їхніх платформах.

5. Які виклики існують у стримуванні загроз штучного інтелекту?
Одним із ключових викликів є відсутність чіткого визначення для посередників та платформ, що призводить до труднощів у визначенні відповідальності та обов’язків за штучні інтелектуальні загрози.

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact