EU on äskettäin toteuttanut edistyksellisen lainsäädännön keinotekoisen älykkyyden (AI) teknologioiden säätelystä, mikä merkitsee merkittävää askelta ihmisoikeuksien suojelemiseksi ja varmistamiseksi, että EU:ssa kehitetyt ja käytetyt AI:t ovat luotettavia. Uudet asetukset luokittelevat AI-sovellukset neljään riskitasoon, joista korkean riskin sektorit, kuten terveydenhuolto, koulutus, vaalit ja kriittinen infrastruktuuri, edellyttävät tiukkaa valvontaa ja riskejä hallitsevia järjestelmiä, kun AI-teknologioita käytetään. Uuden lain mukaan kaikki AI-sovellukset, jotka saattavat loukata perusoikeuksia, ovat ehdottomasti kiellettyjä.
Lisäksi lainsäädäntö velvoittaa läpinäkyvyysvelvoitteisiin yleisissä AI-teknologioissa, kuten AGI, vaatien selvää attribuutiota käytetyistä sisältölähteistä AI-opetusprosesseissa. Asetusten täytäntöönpano on asteittaista, tietyt AI-teknologiat kieltävien asetusten astuessa voimaan kuusi kuukautta myöhemmin ja yleistä AI koskevien velvoitteiden tulevan voimaan 12 kuukautta myöhemmin, täyden täytäntöönpanon ollessa aikataulutettu elokuuhun 2026 mennessä. Vääriin tietoihin liittyvistä AI-teknologioista annetut rangaistukset voivat olla jopa 1,5 % maailmanlaajuisista tuloista, kun taas pakollisten asetusten rikkomukset voivat johtaa jopa 3 % sakoihin. Kumottujen AI-sovellusten väärinkäyttö voi johtaa enintään 7 % sakoihin.
Tämä uusi lainsäädäntö korostaa EU:n sitoutumista vastuulliseen AI-teknologioiden kehitykseen ja käyttöön omilla rajoillaan ja luo ennakkotapauksen globaaleille standardeille AI:n säätelyssä ja hallinnassa.