Skutoční odborníci z oblasti Silicon Valley bijú na poplach v súvislosti so tempom vývoja umelej inteligencie.

Napätie narastá medzi informovanými osobnosťami so znalosťou vnútorného fungovania OpenAI, sídliacich v srdci Silicon Valley. Títo interníci čoraz častejšie vyjadrujú obavy o rýchly vývoj umelej inteligencie (AI), najmä pokiaľ ide o bezpečnostné opatrenia – alebo ich nedostatok – pri snahe dosiahnuť Všeobecnú umelej inteligencie (AGI).

Jadro týchto obáv vyvstáva z očividnej snahy tímu Sama Altmana dosiahnuť AGI skôr, než sa očakávalo, bez nevyhnutných bezpečnostných protokolov. Zdroje odhaľujú, že táto snaha viedla k výraznému vnútornému turbulenciám v OpenAI, čo preukázalo krátke odstránenie Altmna a následný návrat k moci. Incident mal za následok postupné odchody ďalších členov tímu.

Nedávne rozsiahle správy od The New York Times osvetľujú korporátnu kultúru spoločnosti so sídlom v San Franciscu charakterizovanú nezodpovednosťou a tajomstvom. Súťaž o vytvorenie najvýkonnejších systémov AI, aké kedy boli realizované, je v plnom prúde. Deväť súčasných a bývalých zamestnancov OpenAI sa spojilo pri spoločných obavách o to, že spoločnosť nerobí dosť pre zabránenie tomu, aby sa ich systémy stali nebezpečnými.

OpenAI, ktorá sa preslávila uvedením ChatGPT v roku 2022, začala ako neziskové výskumné laboratórium, ale odvtedy sa zameriava na zisk a rast, v snahe vytvoriť AGI. Vyčíta sa OpenAI používanie nátlakových taktík na umĺčanie obáv zamestnancov o ich technológiách vrátane obmedzujúcich dohôd pre tých, ktorí odchádzajú.

Úzkosť nad vývojom AGI vyvoláva kroky medzi odborníkmi odvetvia. Významným hovorcom sa stal Daniel Kokotajlo, bývalý výskumný pracovník OpenAI zaoberajúci sa riadením, ktorý sa stal vedúcim hlasom skupiny angažovanej na odvrátenie potenciálnych katastrof. Tento kolektív zverejnil otvorený list, v ktorom vyzýva vedúce spoločnosti vrátane OpenAI, aby prijali väčšiu transparentnosť a chránili whistleblowerov.

Ďalšími pozoruhodnými členmi skupiny sú bývalí zamestnanci OpenAI ako výskumník William Saunders a ďalší – Cara Weineck, Jacob Hilton a Daniel Ziegler. Obavy z represálií zo strany OpenAI priviedli mnohých k podpore listu anonymne, pričom sa podpis objavil aj od jednotlivcov v Google DeepMind.

Hovorkyňa OpenAI Lindsey Helm prejavila hrdosť na históriu spoločnosti pri dodávaní schopných a bezpečných systémov AI, zdôrazňujúc záväzok k dôkladnej diskusii o riadení rizík spojených s technológiou. Zatiaľčo zástupca Google odmietol komentovať.

Táto kampaň vzniká v zraniteľnej fáze pre OpenAI, ktorý sa stále zotavuje z kontroverzie týkajúcej sa Altmana a čelí právnym sporom o údajnom porušení autorských práv. Okrem toho nedávne ukážky, ako hyperrealistický hlasový asistent, boli poznačené verejnými rozporami, vrátane jedného s herečkou Scarlett Johansson.

Medzi dôsledkami odchodov vedúcich výskumníkov AI Ilya Sutskevera a Jana Leikeho z OpenAI odhaľuje mnoho ako krok späť v záväzku organizácie v oblasti bezpečnosti. Tieto odchody inšpirovali ďalších bývalých zamestnancov, aby prehovorili, zdôrazňujúc svoj postoj na obranu zodpovedného vývoja AI. Bývalí zamestnanci spojení s hnutím „efektívneho altruizmu“ zdôrazňujú prevenciu existenciálnych hrozieb AI, pritahujúc kritiku od tých, čo považujú tento sektor za poplašný.

Kokotajlo, ktorý sa v roku 2022 pridal k OpenAI ako výskumník s úlohou predpovedať pokrok v oblasti AI, revidoval svoje pôvodne optimistické predpovede po uvidení nedávnych pokrokov, pričom teraz priradil pravdepodobnosť 50 % výskytu AGI do roku 2027 a 70 % šancu na to, že pokročilá AGI by mohla ľudstvo zničiť alebo poškodiť. Napriek existujúcim bezpečnostným protokolom, vrátane spolupráce s Microsoftom označenej ako „Safety Review Council“, pozoroval Kokotajlo, že naliehavosť uvedenia produktov často prekryje dôkladné vyhodnotenie rizík.

Dôležité Výzvy a Kontroverzie:

– Rýchlosť vývoja AI oproti implementácii bezpečnostných protokolov: Ako spoločnosti usilujúce sa byť na popredí technológie AI, hrozí riziko, že by mohli zanechať bezpečnostné úvahy pri svojej snahe inovovať.

– Strach z potenciálnych následkov AGI: AGI vyvoláva existenciálne obavy, pretože by mohla prevýšiť ľudskú inteligenciu vo všetkých oblastiach. Interníci sa obávajú, že bez adekvátnych bezpečnostných opatrení by AGI mohlo viesť k dôsledkom, ktoré by boli škodlivé pre ľudstvo.

– Korporátna tajomstvá a otvorenosť: Existuje napätie medzi hodnotnými obchodnými tajomstvami, ktoré sú hnacou silou pokroku v oblasti AI, a potrebou transparentnosti, ktorá zabezpečuje, že širšia komunita bude informovaná a pripravená na potenciálne riziká.

– Zaobchádzanie so zamestnancami a zmluvy o mlčanlivosti (NDAs): Spomenutie obmedzujúcich dohôd naznačuje, že zamestnanci môžu byť neoprávnene nútení k mlčanlivosti, čo by mohlo vyvolať etické obavy a obmedziť otvorenú diskusiu o smerovaní technológie.

Výhody Rýchleho Vývoja AI:
– Zrýchlený inovácie môže viesť k prelomovým výsledkom v medicíne, logistike, environmentálnej technológii a ďalšom.
– Potenciál ekonomického rastu s nástupom nových odvetví a služieb okolo pokročilých systémov AI.
– Zrýchlenie smerom k AGI by mohlo poskytnúť prvým hráčom výhody natoľko, že stanú sa normujúcimi štandardmi v riadení a aplikácii AI.

Nevýhody Rýchleho Vývoja AI:
– Nedostatočné bezpečnostné opatrenia by mohli viesť k nezamýšľaným dôsledkom, vrátane zaujatých rozhodnutí, porušovania súkromia a nahradenia pracovných miest.
– Zrychlený vývoj môže obísť dôkladné etické úvahy, čo by mohlo viesť k zneužitiu alebo škodlivým spoločenským dopadom.
– Možnosť, že AGI sa stane nekontrolovateľným alebo bude zneužívaný, keď raz prekročí úroveň ľudskej inteligencie.

Relevantné Odkazy:
– Pre ďalšie informácie o najnovšom vývoji AI a riadení navštívte hlavnú webovú stránku výskumnej organizácie OpenAI na adrese OpenAI.
– Na preskúmanie perspektív zodpovednej AI navštívte Future of Life Institute, ktorý sa zaoberá príbuznými témami, na adrese Future of Life Institute.
– Na diskusie a smernice o bezpečnostných protokoloch a etike AI sa odkazuje na hlavnú stránku Globálnej iniciatívy IEEE pre etiku autonómnych a inteligentných systémov na adrese IEEE.

Prosím, majte na pamäti, že uvedené odkazy sú na hlavné domény relevantných organizácií podľa pokynov. Nejedná sa o priame odkazy na konkrétne články alebo podstránky.

Privacy policy
Contact