Unione europea si schiera a favore di un utilizzo responsabile dell’IA con una legisazione innovativa

Ministri europei giungono a un consenso su una legislazione pionieristica sull’intelligenza artificiale.

I ministri dell’Unione Europea hanno unanimemente concordato su una storica e pionieristica legislazione che disciplina l’intelligenza artificiale (IA). La nuova legge è progettata specificamente per regolare situazioni ad alto rischio, tra cui l’applicazione della legge e i processi di assunzione.

Il Segretario di Stato belga per gli Affari Digitali ha riconosciuto l’importanza di questa legislazione innovativa. Ha sottolineato il suo ruolo nel affrontare una sfida tecnologica globale e nel creare opportunità per le società e le economie.

La legge europea permette l’uso dell’IA mentre lo vieta quando la tecnologia rappresenta una minaccia per le persone. Essa stabilisce rigide normative sui sistemi ad alto rischio, consentendo il loro utilizzo solo quando è stato dimostrato che rispettano i diritti fondamentali.

La nuova legge sull’IA vieta i sistemi discriminatori. Sistemi che utilizzano la categorizzazione biometrica basata sulle convinzioni politiche, religiose, filosofiche, razza o genere sono proibiti da questa nuova regolamentazione. Inoltre, la legge vieta lo sfruttamento della manipolazione comportamentale e proibisce i sistemi che valutano le persone in base al comportamento o ai tratti personali.

Questa legislazione mira anche a prevenire l’espansione regolamentata o la creazione di database di dati facciali incontrollati, che vengono catturati casualmente tramite internet o attraverso registrazioni audio e video.

Mentre la legge impone queste restrizioni, essa prevede l’utilizzo di telecamere di identificazione biometrica da parte delle forze di sicurezza con un ordine giudiziario per prevenire minacce terroristiche, ad esempio.

Etichettatura obbligatoria dei contenuti e certificazione del mercato dell’IA. I contenuti creati dall’IA, come testi, immagini o video, devono essere classificati per proteggere gli spettatori dai contenuti fuorvianti creati tramite deepfake. I sistemi ad alto rischio devono ricevere la certificazione da parte di organi accreditati prima di entrare nel mercato dell’UE, sotto la sorveglianza del nuovo Ufficio per l’IA.

La mancata conformità alla legge può comportare multe fino a 35 milioni di euro o fino al 7% del fatturato annuo dell’azienda, a seconda della natura dell’ente in torto.

Questa iniziativa legislativa sull’IA è stata proposta per la prima volta dalla Commissione europea nell’aprile 2021, durante la presidenza portoghese del Consiglio dell’UE.

The source of the article is from the blog elblog.pl

Privacy policy
Contact