Europa all’avanguardia: Regolamenti senza precedenti sull’Intelligenza Artificiale

L’Unione Europea si appresta a varare regolamenti completi che regolamentano il campo dell’intelligenza artificiale, compresi sistemi come il ChatGPT di OpenAI. Le norme proposte, introdotte per la prima volta nel 2021, mirano a trovare un equilibrio tra la protezione dei cittadini dai rischi potenziali e la promozione dell’innovazione.

La recente introduzione del ChatGPT di OpenAI, supportato da Microsoft, ha suscitato un vasto interesse nello sviluppo di software di intelligenza artificiale. Tuttavia, si sono anche intensificate le preoccupazioni riguardanti il potenziale abuso e le implicazioni negative. Riconoscendo la necessità di un controllo, l’“Atto sull’IA” dell’UE adotta un approccio basato sul rischio, imponendo requisiti più stringenti per i sistemi AI ad alto rischio.

Secondo queste normative, i fornitori di tecnologie AI ad alto rischio devono effettuare valutazioni approfondite dei rischi e garantire che i loro prodotti siano conformi alla legge prima di renderli disponibili al pubblico. Il commissario del mercato interno dell’UE, Thierry Breton, ha sottolineato che l’approccio adottato è proporzionato e mira a minimizzare una regolamentazione eccessiva garantendo nel contempo un impiego responsabile dell’IA.

L’“Atto sull’IA” dell’UE ha ottenuto un ampio plauso, posizionando l’Europa come leader globale nell’IA affidabile. Dragos Tudorache e Brando Benifei, membri del Parlamento europeo, hanno guidato con successo l’approvazione della legge, con Tudorache che ha festeggiato l’azione tempestiva dell’UE, affermando: “L’UE ha concluso. Senza se e senza ma, e non più tardi.”

Le violazioni delle regolamentazioni potrebbero comportare sanzioni sostanziali, che vanno da 7,5 milioni a 35 milioni di euro ($8,2 milioni a $38,2 milioni), a seconda della natura dell’infrazione e delle dimensioni dell’azienda coinvolta. Le regole vietano esplicitamente l’uso dell’IA per la polizia predittiva, nonché sistemi che utilizzano informazioni biometriche per dedurre attributi personali sensibili come razza, religione o orientamento sessuale.

Le normative limitano anche il riconoscimento facciale in tempo reale negli spazi pubblici, con alcune eccezioni concesse alle forze dell’ordine. Tuttavia, anche in questi casi, la polizia deve ottenere l’approvazione di un’autorità giudiziaria prima di impiegare sistemi AI. Questo approccio cerca un equilibrio tra le preoccupazioni per la sicurezza pubblica e la protezione dei diritti di privacy individuali.

Dopo l’approvazione in parlamento, ci si aspetta che i 27 Stati membri dell’UE ratifichino formalmente le normative in aprile. La legge sarà successivamente pubblicata nella Gazzetta Ufficiale dell’UE tra maggio e giugno. Le disposizioni relative ai modelli AI come ChatGPT entreranno in vigore 12 mesi dopo la pubblicazione ufficiale della legge, mentre la maggior parte delle altre regole avrà un periodo di conformità di due anni.

Il potenziale trasformativo dell’IA in vari aspetti della vita dei cittadini europei, unito alla forte competizione tra le grandi aziende tecnologiche sul redditizio mercato dell’IA, ha portato a estese attività di lobbying. Startup di intelligenza artificiale come Mistral AI in Francia, Aleph Alpha in Germania e giganti tecnologici statunitensi come Google e Microsoft hanno cercato di influenzare le normative. L’impatto del lobbying aziendale durante queste trattative ha sollevato preoccupazioni tra i gruppi di controllo, che sottolineano la necessità di chiarezza e trasparenza in merito a standard, soglie e altri obblighi.

Il commissario Breton ha sottolineato il impegno dell’UE a resistere alle pressioni aziendali per esentare i grandi modelli di intelligenza artificiale dai regolamenti. Ha descritto l’“Atto sull’IA” risultante come un quadro equilibrato, basato sul rischio e pronto per il futuro. Tuttavia, alcuni gruppi di lobby tecnologica, come la CCIA, hanno espresso riserve su alcune disposizioni, affermando che rimangono poco chiare e potrebbero ostacolare lo sviluppo e l’implementazione di applicazioni di intelligenza artificiale innovative in Europa.

Per garantire l’attuazione efficace delle norme, sarà fondamentale trovare un equilibrio delicato tra il mantenimento di un mercato dell’IA dinamico e fiorente e l’attuazione delle salvaguardie necessarie. Solo attraverso un’esecuzione completa e diligente l’UE potrà garantire che le regole non gravino sulle aziende né ostacolino la loro capacità di innovare e competere con efficacia.

[Fonte: (AFP) URL del dominio, non della sottopagina]

### FAQ

**Cos’è l’“Atto sull’IA”?**
L’“Atto sull’IA” fa riferimento al completo insieme di regolamentazioni proposte dai legislatori dell’UE per governare l’intelligenza artificiale, inclusi sistemi come il ChatGPT di OpenAI. Ha lo scopo di proteggere i cittadini dai rischi potenziali associati all’IA mentre promuove l’innovazione.

**Quali sono gli elementi chiave dell’“Atto sull’IA”?**
L’“Atto sull’IA” adotta un approccio basato sul rischio, imponendo requisiti più rigorosi ai sistemi AI ad alto rischio. I fornitori di AI ad alto rischio devono condurre valutazioni dei rischi e garantire la conformità alla legge prima di rendere i loro prodotti disponibili al pubblico. Le normative vietano anche l’uso dell’IA per la polizia predittiva e sistemi che utilizzano informazioni biometriche per dedurre attributi personali sensibili.

**Quali sono le sanzioni per la non conformità?**
Violazioni dell’“Atto sull’IA” possono comportare multe da

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact