Nowy przełomowy akt dotyczący sztucznej inteligencji w Unii Europejskiej

Unia Europejska (UE) stoi na progu zatwierdzenia ostatecznego aktu dotyczącego sztucznej inteligencji, otwierając drogę do najbardziej kompleksowych regulacji na świecie. To przełomowe prawodawstwo ma wejść w życie jeszcze w tym roku, dostarczając ramy dla innych krajów w ich dążeniu do regulowania dynamicznie rozwijającej się dziedziny sztucznej inteligencji.

Członkowie Parlamentu Europejskiego stoją w gotowości, by zagłosować za ustawą dotyczącą sztucznej inteligencji, która została po raz pierwszy zaproponowana pięć lat temu. Z jej wejściem w życie UE dąży do ustanowienia globalnego punktu odniesienia dla skutecznego zarządzania technologiami sztucznej inteligencji.

W przeciwieństwie do polegania wyłącznie na samoregulacji dużych firm technologicznych, ustawa dotycząca sztucznej inteligencji ma na celu postawienie ludzi na pierwszym miejscu, dbając o to, aby technologia służyła jako narzędzie do zwiększania wzrostu gospodarczego, postępu społecznego i ludzkiego potencjału. Podkreśla ona znaczenie kontroli ludzkiej nad systemami sztucznej inteligencji i ustala wytyczne do wykorzystywania nowych odkryć.

Zgodnie z regulacją, aplikacje sztucznej inteligencji zostaną sklasyfikowane na różne kategorie ryzyka. Systemy niskiego ryzyka, takie jak algorytmy rekomendacji treści i filtry antyspamowe, będą podlegały łagodniejszym zasadom, głównie składającym się z wymogów transparentności. Z drugiej strony, aplikacje wysokiego ryzyka, jak urządzenia medyczne czy infrastruktura krytyczna, będą musiały stosować bardziej rygorystyczne kryteria, takie jak korzystanie z wysokiej jakości danych i dostarczanie klarownych informacji użytkownikom.

UE postanowiła także zbanować pewne aplikacje sztucznej inteligencji, które stwarzają niedopuszczalne ryzyko, w tym systemy ocen społecznych, pewne techniki predykcyjnego profilowania osob i systemy rozpoznawania emocji w środowisku edukacyjnym i zawodowym. Prawodawstwo dąży do znalezienia równowagi między promowaniem innowacji a rozwiązywaniem potencjalnych szkód społecznych wynikających z zaawansowanych technologii sztucznej inteligencji.

Aby nadążyć za szybkim rozwojem modeli sztucznej inteligencji, regulacja została rozszerzona, aby obejmować modele generatywne sztucznej inteligencji, które potrafią generować bardzo realistyczne odpowiedzi, obrazy i więcej. Twórcy tych modeli, w tym firmy takie jak OpenAI i Google, będą zobowiązani do dostarczenia szczegółowego podsumowania danych użytych do szkolenia swoich systemów i do przestrzegania prawa autorskiego UE.

Ustawa zajmuje się również problemem deepfake’ów generowanych przez sztuczną inteligencję, nakazując, aby wszelkie sztucznie generowane zdjęcia, filmy czy dźwięki osób, miejsc lub wydarzeń istniejących były jednoznacznie oznakowane jako sztucznie manipulowane. Dodatkowo, największe i najbardziej potężne modele sztucznej inteligencji będą poddane zwiększonej kontroli, jeśli prezentują „ryzyka systemowe” i mają potencjał spowodowania poważnych wypadków lub mogą być wykorzystane do ataków cybernetycznych.

UE dąży do zmniejszenia rozprzestrzeniania się „szkodliwych uprzedzeń” w ramach aplikacji sztucznej inteligencji i oczekuje, że firmy będą oceniać i redukować ryzyka, zgłaszać poważne incydenty, wdrażać środki cyberbezpieczeństwa i ujawniać zużycie energii swoich modeli.

To przełomowe ustawodawstwo dowodzi zaangażowania UE w promowanie odpowiedniego rozwoju sztucznej inteligencji, jednocześnie zapewniając ochronę jednostek i społeczeństwa. Ustanawiając globalny wzorzec regulacji sztucznej inteligencji, UE wyznacza ścieżkę do przyszłości tej transformacyjnej technologii.

FAQ

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact