Profesjonaliści branży sztucznej inteligencji apelują o ochronę sygnalistów.

Pracownicy AI oraz absolwenci wyrażają obawy dotyczące osób ujawniających informacje. Grupa osób mających doświadczenie w organizacjach sztucznej inteligencji, takich jak Anthropic, OpenAI i Google DeepMind, wyraziła niepokój z powodu traktowania pracowników zgłaszających obawy dotyczące bezpieczeństwa technologii AI. W otwartym liście podkreślają potrzebę branży w zakresie kompleksowej ochrony dla osób ujawniających informacje oraz poparcie zasad otwartej krytyki.

Wsparcie dla otwartego sprzeciwu w obliczu rosnących problemów bezpieczeństwa. Publicznie dostępny list podkreśla ograniczenie krytyki i brak nadzoru w firmach AI, co ma miejsce w czasie, gdy obawy dotyczące bezpieczeństwa AI stale rosną. Sygnatariusze wzywają do utworzenia niezawodnych kanałów, poprzez które zarówno obecni, jak i byli pracownicy mogą anonimowo zgłaszać problemy, zmianę wstrzymywania się od negatywnych komentarzy oraz zobowiązanie do niekarania tych, którzy się ujawniają.

Poparcie ze strony wiodących ekspertów w dziedzinie AI. Dokument podpisany przez 13 profesjonalistów zyskał poparcie od znanych postaci, takich jak Yoshua Bengio, Geoffrey Hinton i Stuart Russell. To pokazuje duży poziom obaw dotyczących panującego podejścia do osób ujawniających informacje w tej dziedzinie, podkreślając koncentrację na działaniach nielegalnych ponad ryzykiem dla bezpieczeństwa AI poza kontrolą.

OpenAI reaguje na odejścia z nowym zespołem ds. bezpieczeństwa. Rozwiązanie niedawno przez OpenAI zespołu „Superalignment”, który zajmował się badaniem długoterminowych ryzyk związanych z AI, doprowadziło do kilku rezygnacji. Obejmuje to współzałożyciela Ilyę Sutskevera. W odpowiedzi OpenAI, pod przewodnictwem dyrektora wykonawczego Sama Altmana, powołało nową grupę skupioną na bezpieczeństwie. Otwarty list profesjonalistów wskazuje na znaczącą zmianę kulturową, w której rozwój produktu nabiera pierwszeństwa nad bezpieczeństwem i kwestiami etycznymi w firmie.

Ważność Ochrony Osób Ujawniających Informacje w Branży AI
Ochrona osób ujawniających informacje jest istotna w branży AI ze względu na szybkie tempo, w jakim rozwija się technologia oraz jej potencjalne znaczące pozytywne i negatywne skutki dla społeczeństwa. Bez mechanizmów zgłaszania problemów, potencjalnie szkodliwe czy niebezpieczne rozwinięcia AI mogą nie otrzymać odpowiedniej uwagi, aż będzie za późno. Osoby ujawniające informacje mogą odgrywać kluczową rolę w zapewnieniu etycznego rozwoju i wdrazania AI poprzez ujawnianie nieprawidłowości, uprzedzenia, braku przejrzystości i innych problemów, które nie muszą być od razu widoczne dla publiczności czy regulatorów.

W celu uzyskania powiązanych informacji i zrozumienia szerszych implikacji i dyskusji dotyczących AI i etyki, zapraszamy do odwiedzenia następujących stron internetowych:
AIESEC dla perspektywy na temat AI od młodych liderów globalnych.
ACLU dla informacji na temat praw obywatelskich w kontekście nowych technologii.
AAAI dla wglądu w badania i politykę dotyczące sztucznej inteligencji.

Należy zauważyć, że podane linki prowadzą do domen głównych, a nie do konkretnych podstron dotyczących ochrony osób ujawniających informacje w dziedzinie AI. Ponadto zawsze upewnij się, że adres URL jest bezpieczny (zwykle oznaczone HTTPS) i godny zaufania przed kliknięciem.

Privacy policy
Contact