Technológia AI predstavuje vážne riziká, tvrdí skupina zamestnancov kľúčových spoločností pôsobiacich v oblasti AI
Kolektív súčasných a bývalých zamestnancov niektorých popredných spoločností pôsobiacich v oblasti umelej inteligencie (AI) upozornil na možné nebezpečenstvá, ktoré AI predstavuje pre spoločnosť. Obrátili sa na technologické spoločnosti so žiadosťou o záväzok k zvýšenej transparentnosti a podpore kritickej kultúry na zlepšenie zodpovednosti.
Výzva na zodpovednú prax AI, podporená 13 podpisovateľmi vrátane jednotlivcov z OpenAI, Anthropic a Google DeepMind, zdôrazňuje naléhavosť zmiernenia rizík, ako je zhoršovanie nerovnosti, šírenie dezinformácií a umožnenie AI systémom nezávisle fungovať, čo by mohlo viesť k významnej straty životov. Podpisovatelia uviedli, že hoci tieto riziká možno obmedziť, spoločnosti majú značné finančné stimuly na obmedzenie dohľadu.
Interné problémy v spoločnosti OpenAI odhaľujú širšie obavy
OpenAI, ktorá nedávno zažila vlnu odchodov zamestnancov, zaznamenala odchod známych osobností ako spoluzakladateľ Ilya Sutskever a vedúci výskumník Jan Leike. Odchody sú zároveň jemnou kritikou smerovania spoločnosti, kde, podľa niektorých, snaha o zisk prevyšuje potrebu bezpečnejšieho nasadenia technológií.
Bývalý zamestnanec OpenAI Daniel Kokotajlo vyjadril zúfalstvo z dôvodu ľahostajnosti spoločnosti k nebezpečenstvám AI. Jeho vyhlásenie odrážalo častý obavy, že úsilie spoločnosti o urychlený vývoj je diametrálne odlišné od opatrnejšího postupu potrebného pre takú silnú a zložitú technológiu.
Napriek týmto obavám Liz Bourgeois, hovorkyňa spoločnosti OpenAI, uznala kritickú potrebu robustnej diskusie pri pokrokoch v oblasti AI.
Pracovníci AI žiadajú ochranu výstupkov a etické zásady
Vzhľadom na súčasný nedostatok vládneho dohľadu sa pracovníci AI cítia ako jedna z mála skupín, ktoré môžu požadovať, aby spoločnosti bola zodpovedná. Zmluvy o zachovaní dôvernosti a nedostatočná ochrana výstupníka bránia v ich schopnosti upozorniť na problém.
V liste sa žiada od technologických spoločností, aby dodržiavali štyri zásady vrátane sľubu neohnuteľnej pomoci pre výstupníkov, podpory kultúry kritiky, poskytovania procesov na anonymné upozornenie na problémy a odmietania dohôd, ktoré bránia diskusii o rizikách.
Tieto žiadosti prichádzajú v čase interných problémov v spoločnosti OpenAI, ktoré vedú k dočasnému odstaveniu výkonného riaditeľa Sama Altmana, zhoršené nekvalitnou komunikáciou o bezpečnostných postupoch spoločnosti.
AI osobnosti ako Yoshua Bengio, Geoffrey Hinton a vedec Stuart Russell podpísali výzvu k akcii, zdôrazňujúc závažnosť situácie.
Kľúčové otázky a odpovede
1. Prečo naliehajú odborníci na AI na technologické spoločnosti, aby prijali transparentnosť a zodpovednosť?
Odborníci na AI naliehajú na transparentnosť a zodpovednosť kvôli potenciálnym rizikám, ktoré predstavuje technológia AI, vrátane zhoršovania nerovnosti, šírenia dezinformácií a možnosti nezávislého fungovania AI systémov s potenciálne fatálnymi následkami. Veria, že bez týchto opatrení by sa snaha o inovácie a zisky mohla prekryť s dôležitosťou bezpečnosti a etických zreteľov.
2. Aké štyri zásady požadujú pracovníci AI, aby technologické spoločnosti dodržiavali?
Štyri zásady zahŕňajú:
– Sľub neohnuteľnej pomoci pre výstupníkov.
– Podpora kultúry, ktorá podporuje kritiku a diskusiu.
– Poskytovanie procesov na anonymné upozorňovanie na problémy.
– Odmietanie dohôd, ktoré bránia otvorenej diskusii o rizikách.
3. Čo spôsobilo vnútorné ťažkosti vo spoločnosti OpenAI?
Vnútorné ťažkosti vo spoločnosti OpenAI vznikli v dôsledku pociťovaného dôrazu na rýchly rozvoj a ziskovosť pred bezpečnosťou a etickými obavami, čo viedlo k sérii odchodov zamestnancov a širšieho preskúmania smerovania spoločnosti.
Klíčové výzvy alebo kontroverzie
– Rovnováha medzi inováciou a bezpečnosťou: Spoločnosti často čelia výzvam pri zmierňovaní nátlaku na rýchly postup a zachovaní prísnych bezpečnostných a etických noriem.
– Nezrozumiteľné systémy AI: Komplexnosť systémov AI môže viesť k nedostatku pochopenia alebo transparentnosti v tom, ako sa rozhodnutia robia, čo skomplikuje dozor.
– Ochrana výstupníkov: Nedostatočná ochrana tých, ktorí upozorňujú na problémy, môže odradiť jednotlivcov od vyjadrovania sa proti neetickým praktikám.
– Možnosť zneužitia: Technológia AI môže byť zneužitá na škodlivé účely, čo zdôrazňuje potrebu prísnej zodpovednosti.
Výhody a nevýhody
Výhody:
– Zvýšená bezpečnosť: Dôraz na transparentnosť a zodpovednosť môže viesť k bezpečnejším systémom AI.
– Etický vývoj: Zodpovedné prístupy zabezpečujú, aby technológia AI zodpovedala spoločenským hodnotám a etike.
– Dôvera spotrebiteľov: Transparentnosť môže zvýšiť dôveru verejnosti v technológie AI a spoločnosti.
Nevýhody:
– Pomalšia inovácia: Zvýšené prešetrovanie môže spomaliť uvoľnenie nových technológií.
– Náklady: Implementácia robustných dozorných mechanizmov môže byť náročná pre zdroje spoločností.
Pre ďalšie informácie o AI a súvisiacich politikách sa môžete odkázať na tieto odkazy:
– OpenAI
– Anthropic
– DeepMind
Upozorňujeme, že tieto odkazy by mali viesť na hlavné domény uvedených spoločností spomínaných v článku. Sú poskytnuté na získanie ďalších informácií o ich zásadách a technológiách AI, pričom každý odkaz bol skontrolovaný, aby sa overila jeho platnosť vzhľadom na poslednú aktualizáciu znalostí.
The source of the article is from the blog smartphonemagazine.nl