Insiders z Silicon Valley vyvolávají poplach nad tempem vývoje AI

Nárůst napětí mezi informovanými osobnostmi s pohledem do nitra OpenAI nacházejícího se v srdci Silicon Valley. Tyto osoby zevnitř stále více vyjadřují obavy ohledně rychlého vývoje umělé inteligence (AI), zejména co se týká bezpečnostních opatření – nebo spíše nedostatku těchto opatření – při usilování o Všeobecnou umělou inteligenci (AGI).

Jádro těchto obav pramení z očividné snahy týmu Sama Altmana dosáhnout AGI dříve než se předpokládalo, bez nezbytných bezpečnostních protokolů. Zdroje odhalují, že tato snaha vedla k významným interním rozepřím v OpenAI, což se projevilo krátkým odstraněním Altmana a jeho následným návratem k moci. Tento incident vedl k postupnému odchodu dalších členů týmu.

Nedávný rozsáhlý reportážní článek New York Times osvětluje firemní kulturu společnosti se sídlem v San Franciscu charakterizovanou lehkomyselností a tajemstvím. Závod o vytvoření nejvýkonnějších systémů umělé inteligence, jaké kdy byly zrealizovány, je již v plném proudu. Devět současných a bývalých zaměstnanců OpenAI se spojilo s sdílenými obavami, že společnost neprovozuje dostatečná opatření k zabránění tomu, aby jejich systémy nebyly nebezpečné.

OpenAI, známé uvedením ChatGPT v roce 2022, začalo jako nezisková výzkumná laboratoř, ale od té doby se zaměřilo na zisk a růst, v rámci úsilí o vytvoření AGI. Objevily se obvinění, že OpenAI používala tvrdohlavé taktiky k potlačení obav zaměstnanců ohledně svých technologií, včetně restriktivních smluv pro ty, kdo odejdou.

Nervozita ohledně vývoje AGI vyvolává akci mezi průmyslovými odborníky. Zejména Daniel Kokotajlo, bývalý výzkumník správy OpenAI, se stal hlavním hlasem ve skupině s cílem zabránit možným katastrofám. Tato kolektivní skupina vydala otevřený dopis, ve kterém vyzývá přední společnosti, včetně OpenAI, k větší transparentnosti a ochraně oznamovatelů.

Mezi další významné členy skupiny patří bývalí zaměstnanci OpenAI jako výzkumník William Saunders a další tři – Cara Weineck, Jacob Hilton a Daniel Ziegler. Obava z odvetné akce ze strany OpenAI vedla mnoho osob k podpoře dopisu anonymně, s podpisy také pocházejícími od osob ve společnosti Google DeepMind.

Mluvčí OpenAI Lindsey Helm vyjádřila hrdost na historii společnosti při dodávání schopných a bezpečných systémů umělé inteligence, zdůrazňující jejich závazek ke důkladné diskusi o řízení rizik spojených s technologií. Mezitím mluvčí z Googlu odmítl komentovat.

Tato kampaň vzniká v kritické fázi pro OpenAI, která se stále zotavuje z kontroverzního incidentu se Samem Altmanem a čelí právním sporům kvůli údajným případy porušení autorských práv. Kromě toho nedávné předvádění, jako je hyperrealistický hlasový asistent, byly poznamenány veřejnými spory, včetně jednoho s herečkou Scarlett Johansson.

Mezi následky patří odstoupení vedoucích výzkumníků v oblasti umělé inteligence Ilyi Sutskevera a Jana Leike z OpenAI, která byla interpretována mnohými jako krok zpět v závazku organizace k bezpečnosti. Tyto odchody inspirovaly další bývalé zaměstnance, aby promluvili, zvyšujíce tak jejich postavení ve prospěch zodpovědného vývoje AI. Bývalí zaměstnanci spojení s hnutím „efektivní altruismus“ zdůrazňují prevenci existenčních hrozeb AI, přitahujíce kritiku od těch, kdo považují obor za poplašný.

Kokotajlo, který se připojil k OpenAI v roce 2022 jako výzkumník pověřený předpovídáním pokroku v oblasti AI, revidoval své původně optimistické predikce po sledování nedávných pokroků. Nyní přiřazuje pravděpodobnost vzniku AGI do roku 2027 na 50 % a pravděpodobnost pokročilé AGI, která potenciálně zničí nebo poškodí lidstvo, na 70 %. Navzdory existenci bezpečnostních protokolů včetně spolupráce s Microsoftem označenou jako „Rada pro zhodnocení bezpečnosti,“ Kokotajlo zaznamenal, že naléhavost vydávání produktů často převážila důsledné posouzení rizik.

Klíčové výzvy a kontroverze:

Tempo rozvoje AI versus implementace bezpečnostních protokolů: Jak společnosti usilují o prvenství v oblasti technologie AI, hrozí, že by mohly stranit bezpečnostním úvahám ve svém spěchu inovovat.

– Obava z potenciálních důsledků AGI: AGI přináší existenční obavy, protože by mohla překonat lidskou inteligenci ve všech oblastech. Insidé se obávají, že bez dostatečných bezpečnostních sítí by AGI mohla vést k výsledkům škodlivým pro lidskost.

Firmy tíhly k tajemství a otevřenosti: Nastává napětí mezi cennými obchodními tajemstvími, která posilují pokrok v oblasti AI, a potřebou transparentnosti, která zajišťuje, aby širší komunita byla informována a připravena na možná rizika.

Manipulace zaměstnanců a smlouvy o mlčenlivosti (NDAs): Uvedení restriktivních smluv naznačuje, že zaměstnanci by mohli být neoprávněně nuceni k mlčenlivosti, což by mohlo vyvolat etické obavy a bránit otevřené diskusi o směřování technologie.

Výhody rychlého rozvoje AI:
– Zrychlený inovace může vést k průlomům v medicíně, logistice, environmentální technologii a dalších oblastech.
– Potenciál ekonomického růstu s novými odvětvími a službami vznikajícími kolem pokročilých systémů AI.
– Rychlý postup k AGI by mohl poskytnout první-movery výhody společnostem a národům, nastavující standardy v řízení AI a jejím uplatnění.

Nevýhody rychlého rozvoje AI:
– Nedostatečná bezpečnostní opatření mohou vést k nechtěným důsledkům, včetně zkreslených rozhodnutí, zasahování do soukromí a ztrátě pracovních míst.
– Spěšný vývoj může obejít důkladné etické úvahy, což by mohlo vést k zneužití nebo škodlivým společenským dopadům.
– Potenciál AGI stát se nekontrolovatelným nebo být zneužit k úmyslnému použití, jakmile překoná úrovně lidské inteligence.

Relevantní odkazy:
– Pro více informací o nejnovějších vývojích v oblasti AI a správě můžete navštívit hlavní webovou stránku výzkumné organizace AI OpenAI na adrese OpenAI.
– Prozkoumat perspektivy ohledně zodpovědné umělé inteligence navštivte Institut budoucnosti života, který se zabývá souvisejícími tématy, na adrese Future of Life Institute.
– Pro diskuse a směrnice o bezpečnostních protokolech a etice AI odkazujete na hlavní stránku Globální iniciativy IEEE pro etiku autonomních a inteligentních systémů na adrese IEEE.

Upozorňujeme, že výše uvedené odkazy vedou na hlavní domény příslušných organizací podle pokynů. Nejedná se o přímé odkazy na konkrétní články nebo podstránky.

Privacy policy
Contact