Agencje federalne w Stanach Zjednoczonych, w tym Departament Pracy, Federalna Komisja Handlu (FTC) i kilka innych, potwierdziły swoje zaangażowanie w zwalczaniu uprzedzeń w technologiach sztucznej inteligencji (AI). W oficjalnym oświadczeniu opublikowanym w czwartek agencje podkreśliły swoje zaangażowanie w wykorzystanie swoich zbiorowych uprawnień w celu ochrony praw jednostek, niezależnie od tego, czy naruszenia prawa występują tradycyjnymi środkami czy zaawansowanymi technologiami.
Sygnatariuszami oświadczenia byli urzędnicy Biura Ochrony Finansowej Konsumentów (CFPB), Komisji Równych Szans w Zatrudnieniu (EEOC) oraz departamentów Sprawiedliwości, Mieszkalnictwa i Rozwoju Urbanistycznego, Edukacji, Zdrowia i Opieki Społecznej, Bezpieczeństwa Wewnętrznego oraz Pracy.
W miarę jak firmy coraz bardziej polegają na AI do podejmowania kluczowych decyzji dotyczących jednostek, takich jak wybór aplikantów do pracy oraz określanie stop wydawanych kredytów hipotecznych, staje się istotne zwrócenie uwagi na potencjalne uprzedzenia w tych zautomatyzowanych systemach. W oświadczeniu podkreślono, że uprzedzenia mogą przenikać modele AI z powodu błędnych danych, braku przejrzystości w wydajności modelu oraz nieprawidłowego stosowania narzędzi AI. Te uprzedzenia mogą mieć daleko idące negatywne konsekwencje, gdy te systemy są szeroko wdrażane.
„Choć narzędzia AI mają ogromny potencjał, ich wykorzystanie ma również potencjał do utrwalania nielegalnych uprzedzeń, automatyzowania bezprawnych dyskryminacji oraz prowadzenia do innych szkodliwych konsekwencji” – ostrzegły agencje w swoim oświadczeniu.
FTC już podjęła działania przeciwko naruszeniom związanym z AI, jednym z zauważalnych przykładów jest zakaz wykorzystania przez Rite Aid technologii rozpoznawania twarzy do łapania złodziei. FTC stwierdziła, że technologia nieprawidłowo identyfikowała znaczną liczbę kobiet oraz osób o kolorze skóry innym niż biały. Podobnie, Biuro Oprogramowania Federalnych Programów Kontraktów Pracy wyraziło swoje zamiary związane z dochodzeniem w sprawie negatywnych skutków wynikających z wykorzystania narzędzi AI w procesie selekcji.
Aby dalej rozwiązać te problemy, agencje, w tym CFPB, EEOC oraz Zdrowia i Opieki Społecznej, pracują nad wydaniem wskazówek, które pozwolą na zrozumienie, jak obowiązujące prawa dotyczą technologii AI. Proaktywne podejście agencji federalnych wskazuje na ich zaangażowanie w zapewnienie sprawiedliwości i odpowiedzialności w zakresie rozwoju i wdrażania systemów AI.
To ostatnie oświadczenie jest kontynuacją poprzedniego wydanego w kwietniu przez FTC, EEOC, CFPB oraz DOJ, które stanowiło ostrzeżenie dla firm, że obowiązujące prawa będą ściśle egzekwowane nawet w przypadkach dotyczących technologii AI.