Impatti delle nuove linee guida sull’utilizzo dell’Intelligenza Artificiale in India

Nell’ultimo aggiornamento, il Ministero dell’Elettronica e della Tecnologia dell’Informazione (MeitY) in India ha apportato significative modifiche alla sua linee guida sull’uso dell’intelligenza artificiale (IA) da parte delle società di social media. La nuova linee guida, emessa di venerdì, sostituisce la precedente nota emanata l’1 marzo, che delineava la dovuta diligenza da seguire da parte degli intermediari e delle piattaforme ai sensi della legge sulla tecnologia dell’informazione del 2000 e delle regole del 2021 sull’etica nei media digitali e le linee guida sugli intermediari informatici.

Uno dei cambiamenti chiave nella linee guida riveduta è l’eliminazione della disposizione che imponeva agli intermediari e alle piattaforme di ottenere il permesso del governo prima di distribuire modelli e strumenti di intelligenza artificiale “non testati” o “non affidabili”. Invece, la nuova linee guida sottolinea che i modelli di intelligenza artificiale non testati e non affidabili dovrebbero essere resi disponibili in India solo dopo essere chiaramente etichettati per informare gli utenti sulla potenziale fallibilità o non affidabilità dell’output generato.

Inoltre, la linee guida riveduta si concentra sul garantire che i modelli e gli algoritmi di intelligenza artificiale utilizzati dagli intermediari non permettano bias o discriminazioni e non minaccino l’integrità del processo elettorale. Essa consiglia anche agli intermediari di utilizzare popup di consenso o meccanismi simili per informare esplicitamente gli utenti sull’affidabilità degli output generati dall’intelligenza artificiale.

Il Ministero mantiene inoltre l’accento sull’individuazione e la mitigazione dei deepfake e delle disinformazioni. Essa consiglia agli intermediari di etichettare o incorporare contenuti con metadati unici o identificativi per renderli facilmente identificabili. La linee guida copre varie forme di contenuto, inclusi audio, visivi, testuali e audiovisivi. L’intento è quello di identificare contenuti che potrebbero essere potenzialmente utilizzati come disinformazione o deepfake, anche se il termine “deepfake” stesso rimane non definito.

La linee guida riveduta richiede anche agli intermediari di configurare i metadati in modo da consentire l’identificazione degli utenti o delle risorse informatiche responsabili di eventuali modifiche apportate al contenuto. Vale la pena notare che la linee guida riveduta è applicabile a otto significativi intermediari di social media in India, vale a dire Facebook, Instagram, WhatsApp, Google/YouTube (per Gemini), Twitter, Snap, Microsoft/LinkedIn (per OpenAI) e ShareChat. Tuttavia, non si applica ad Adobe, Sarvam AI e Krutrim AI di Ola.

La precedente linee guida dell’1 marzo aveva ricevuto critiche da molti fondatori di startup, che lo consideravano una mossa dannosa. L’aggiornamento della linee guida mira a trovare un equilibrio stabilendo delle linee guida attorno ai grandi modelli di lingua e ai modelli di intelligenza artificiale utilizzati dalle principali piattaforme di social media, riconoscendo che i modelli stessi non sono intermediari o significativi intermediari di social media ai sensi dei criteri definiti.

Mentre la tecnologia dell’Intelligenza Artificiale continua a evolversi e a diventare parte integrante della nostra vita quotidiana, è fondamentale che i governi stabiliscano regolamentazioni efficaci che affrontino sia i potenziali benefici che i rischi associati all’IA. La linee guida riveduta del MeitY riflette un cambiamento nel panorama delle regolamentazioni sull’IA in India, con un focus sulla trasparenza e la responsabilità nell’uso dell’IA da parte delle società di social media.

Domande frequenti

1. Qual è lo scopo della linee guida riveduta sull’IA in India?
La linee guida riveduta mira a fornire linee guida e regolamentazioni per l’uso dell’intelligenza artificiale da parte delle società di social media in India, garantendo trasparenza, responsabilità e consapevolezza degli utenti riguardo all’affidabilità degli output generati dall’IA.

2. Quali sono alcuni dei principali cambiamenti nella linee guida riveduta?
I principali cambiamenti includono la rimozione del requisito di ottenere il permesso del governo prima di distribuire modelli di IA non testati o non affidabili, l’enfasi sull’etichettatura degli output generati dall’intelligenza artificiale per informare gli utenti della loro potenziale fallibilità e il focus sulla prevenzione di bias, discriminazioni e minacce al processo elettorale.

3. A quali società di social media si applica la linee guida?
La linee guida si applica a significativi intermediari di social media in India, tra cui Facebook, Instagram, WhatsApp, Google/YouTube (per Gemini), Twitter, Snap, Microsoft/LinkedIn (per OpenAI) e ShareChat.

4. Come affronta la linee guida il problema dei deepfake e delle disinformazioni?
La linee guida richiede agli intermediari di etichettare o incorporare contenuti con metadati unici o identificativi per facilitare l’identificazione dei deepfake e delle disinformazioni, garantendo così il loro riconoscimento e la loro mitigazione.

5. Perché è stata criticata la linee guida precedente?
La linee guida precedente ha ricevuto critiche da parte dei fondatori di startup che l’hanno considerata dannosa per lo sviluppo e la crescita delle tecnologie legate all’IA in India.

Fonti:
Hindustan Times

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact