I legislatori dell’Unione Europea sono pronti a dare l’approvazione finale alla legge sull’intelligenza artificiale leader mondiale, nota come AI Act. Questa legge storica è prevista per fungere da guida globale per altri governi nella regolamentazione della tecnologia in rapida evoluzione. L’AI Act mira a garantire un approccio centrato sull’uomo all’IA, in cui gli esseri umani rimangono al controllo sfruttando il potenziale della tecnologia per la crescita economica e il progresso sociale.
Proposto cinque anni fa, l’AI Act è pronto per essere approvato dal Parlamento Europeo. La legge adotta un approccio basato sul rischio, con diversi livelli di controllo in base ai rischi associati alle applicazioni dell’IA. I sistemi a basso rischio, come gli algoritmi di raccomandazione dei contenuti o i filtri antispam, affronteranno una regolamentazione minima, richiedendo solo la divulgazione che sono alimentati dall’IA. La maggior parte dei sistemi AI è prevista che ricada in questa categoria.
D’altra parte, gli utilizzi ad alto rischio dell’IA, come quelli in dispositivi medici o infrastrutture critiche, affronteranno requisiti più rigorosi. Questi includono l’uso di dati di alta qualità, la fornitura di informazioni chiare agli utenti e l’aderenza a linee guida specifiche. L’AI Act vieta anche determinati utilizzi dell’IA che presentano un rischio inaccettabile, come i sistemi di valutazione sociale, certi tipi di polizia preventiva e sistemi di riconoscimento delle emozioni in ambienti educativi e lavorativi.
Un’aggiunta nota all’AI Act è la considerazione dei modelli AI generativi. Questi modelli, che consentono ai sistemi AI chatbot di produrre risposte, immagini e altro ancora uniche e realistiche, non erano inizialmente coperti nelle prime bozze della legge. Per affrontare questo, i creatori di modelli AI ad uso generico dovranno ora fornire un dettagliato riepilogo dei dati di addestramento utilizzati, compresi testi, immagini, video e altro. Inoltre, i contenuti deepfake generati dall’AI devono essere chiaramente etichettati come manipolati artificialmente.
L’AI Act sottolinea anche la necessità di controllo e regolamentazione per i modelli AI più grandi e potenti che presentano rischi sistemici potenziali. Questi modelli, come l’OpenAI’s GPT4 e il Gemini di Google, sono considerati capaci di provocare incidenti gravi o essere utilizzati per attacchi informatici. Sussistono preoccupazioni riguardo alla diffusione di pregiudizi dannosi attraverso l’IA generativa in varie applicazioni, con conseguenze su un gran numero di persone.
Le aziende che forniscono questi sistemi AI saranno responsabili della valutazione e della mitigazione dei rischi, della segnalazione di eventuali incidenti gravi, dell’attuazione di misure di sicurezza informatica e della divulgazione del consumo energetico. Lo scopo è garantire l’accountability e l’uso responsabile delle tecnologie AI.
Con l’attuazione dell’AI Act, l’Europa sta assumendo il ruolo di guida nella regolamentazione dell’IA, ponendo un esempio per il resto del mondo. Mentre altri governi, inclusi gli Stati Uniti con l’ordine esecutivo del Presidente Joe Biden sull’IA, riconoscono anche la necessità di regolamentazione, il completo insieme di regole dell’Unione Europea probabilmente plasmerà le discussioni globali sulla governance dell’IA e influenzerà le future legislazioni in altre regioni.