Europejska Unia Pionierem w Regulacji Sztucznej Inteligencji

Europejscy legislatorzy stoją na progu finalizacji zatwierdzenia przełomowego prawa dotyczącego sztucznej inteligencji, co otworzy drogę do jego wdrożenia jeszcze w tym roku. Prawo to, znane jako Akt dotyczący Sztucznej Inteligencji, ma na celu uczynienie UE światowym pionierem w regulacji sztucznej inteligencji oraz posłuży jako wzór dla innych krajów borykających się z wyzwaniami związanymi z zarządzaniem tą szybko rozwijającą się technologią.

Akt dotyczący SI jest wynikiem pięciu lat obrad od jego początkowej propozycji. Jego głównym celem jest ustanowienie ram, które zapewnią odpowiedni i ludzko-skojarzony rozwój SI, umieszczając ludzi w kontroli technologii i wykorzystując jej potencjał do wzrostu gospodarczego i postępu społecznego.

Chociaż duże firmy technologiczne ogólnie poparły potrzebę regulacji SI, równocześnie lobbowali w celu ochrony swoich interesów. W zeszłym roku dyrektor generalny OpenAI, Sam Altman, wywołał kontrowersje, sugerując, że jego firma może wycofać się z Europy, jeśli nie będzie mogła przestrzegać Aktu dotyczącego SI. Jednak później sprostował, że nie ma rzeczywistych planów opuszczenia regionu.

Akt dotyczący SI stosuje podejście oparte na ryzyku w regulacji SI, dając pierwszeństwo bezpieczeństwu konsumentów. Zastosowania SI są klasyfikowane na niskie i wysokie ryzyko, a poziom nadzoru i regulacji zmienia się odpowiednio. Systemy o niskim ryzyku, takie jak algorytmy rekomendacji treści czy filtry antyspamowe, podlegają łagodniejszym zasadom, przede wszystkim wymagając transparentności przy ujawnianiu swojej opartej na SI natury. UE oczekuje, że większość systemów SI zostanie zakwalifikowana jako niskie ryzyko.

Z drugiej strony, wysokie ryzyko zastosowań SI, takie jak urządzenia medyczne i infrastruktura krytyczna, podlegać będą surowszym wymaganiom. Wymagane będą m.in. użycie wysokiej jakości danych, klarowne informacje dla użytkowników oraz przestrzeganie określonych środków bezpieczeństwa. Niektóre zastosowania SI są całkowicie zabronione ze względu na uznane za nie do zaakceptowania ryzyka, takie jak pewne systemy oceniania społecznego, przewidywanie przestępczości i systemy rozpoznawania emocji w środowisku edukacyjnym i zawodowym. Prawo zabrania również systemów SI z zastosowaniem zdalnego rozpoznawania twarzy do użytku publicznego, z wyjątkiem w przypadkach poważnych przestępstw.

Pojawienie się modeli SI ogólnego przeznaczenia, takich jak ChatGPT OpenAI, wymagało dodatkowych postanowień w Akcie dotyczącym SI. Te modele, które potrafią generować realistyczne odpowiedzi, obrazy i więcej, wymagają od programistów dostarczenia szczegółowych podsumowań użytych danych treningowych i przestrzegania prawa autorskiego UE.

Jednym z głównych problemów, którymi zajmuje się Akt dotyczący SI, jest potencjalne ryzyko systemowe związane z potężnymi modelami SI. UE identyfikuje GPT4 OpenAI i Gemini Google jako przykłady modeli wymagających zwiększonej uwagi ze względu na ich zaawansowane możliwości. Ustawa ma na celu zapobieganie poważnym wypadkom, cyberatakami i rozprzestrzenianiem szkodliwych uprzedzeń poprzez SI generatywne w różnych zastosowaniach.

Firmy rozwijające i dostarczające systemy SI objęte Akt dotyczący SI będą zobowiązane do oceny i ograniczania ryzyka, zgłaszania incydentów prowadzących do szkody, wdrażania środków cyberbezpieczeństwa i ujawniania danych dotyczących zużycia energii.

Z nadchodzącym zatwierdzeniem Aktu dotyczącego SI Europejska Unia umacnia swoją pozycję jako światowego lidera w regulacji SI. Ustanawiając rygorystyczne standardy, UE ma na celu zapewnienie odpowiedniego i etycznego rozwoju technologii SI przy jednoczesnej ochronie praw i dobrobytu jednostek.

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact