Profesionáli AI odvetvia žiadajú ochranu sťažovateľov

Zamestnanci a absolventi umelej inteligencie vyjadrujú obavy o udavačov. Skupina ľudí s skúsenosťami z organizácií umelej inteligencie ako Anthropic, OpenAI a Google DeepMind vyjadrila znepokojenie nad spôsobom, akým sa zaobchádza so zamestnancami, ktorí upozornia na bezpečnostné obavy týkajúce sa technológie umelej inteligencie. V otvorenom liste zdôrazňujú potrebu komplexnej ochrany udavačov v priemysle a podporu princípov otvorených kritík.

Podpora otvoreného nesúhlasu v čase rastúcich bezpečnostných otázok. Verejne dostupný list zdôrazňuje utlmenie kritík a nedostatok dohľadu vo firmách umelej inteligencie, čo prichádza v čase nárastu obáv ohľadom bezpečnosti AI. Podpísaní žiadajú vytvorenie spoľahlivých kanálov, cez ktoré môžu súčasní aj bývalí zamestnanci anonymne oznámiť problémy, posun od nekrítičných doložiek a záväzok netrestať tých, ktorí prídu s informáciami von.

Podpory od prominentných odborníkov v oblasti umelej inteligencie. Dokument podpísaný 13 profesionálmi získal podporu osôb ako Yoshua Bengio, Geoffrey Hinton a Stuart Russell. Ukazuje to vysokú úroveň obáv o prevalujúci postoj voči udavačom v odvetví, vyzýva k dôrazu na nezákonnú činnosť pred neregulovanými rizikami pre bezpečnosť AI.

OpenAI reaguje na odchody vytvorením novej bezpečnostnej skupiny. Rozpustenie tímu „Superalignment“ v OpenAI, venovaného skúmaniu dlhodobých rizík spojených s AI, viedlo k niekoľkým odchodom. Medzi nimi je aj spoluzakladateľ Ilya Sutskever. V reakcii OpenAI, pod vedením generálneho riaditeľa Sama Altmana, založila novú skupinu so zameraním na bezpečnosť. Otvorený list od profesionálov naznačuje významnú kultúrnu zmenu so zameraním na vývoj produktov pred bezpečnosťou a etickými zvažovaniami vo firme.

Privacy policy
Contact