Nové návrhy na kontrolu vývozu cieľové obmedzenia distribúcie modelov AI.

V stredobode kvitnúcich technologických pokrokov hodnotí Ministerstvo obchodu Spojených štátov strategickú zmenu v právnych krokoch, ktorá si kládze za cieľ obmedziť export exkluzívnych alebo vlastníckych modelov umelej inteligencie obsahujúcich tajné softvérové vzdelávacie programy a údaje. Tento krok je vnímaný ako súčasť stáleho úsilia za posledné dva roky zamedziť prenos špičkových čipov s umelou inteligenciou do Číny, opatrenie navrhnuté na zastavenie rozvoja pokročilej technológie tejto krajiny s vojenskými účelmi.

Americké Agentúry Zápasia so Svojráznym Vývojom Technológií

Aj napriek týmto zámerom majú regulačné agentúry v rámci Spojených štátov problém držať krok s rýchlo sa meniacim priemyslom umelej inteligencie. Ministerstvo obchodu nereagovalo na túto záležitosť a čínska ambasáda vo Washingtone neodpovedala včas na žiadosť o komentár zo strany spravodajských médií.

Zatiaľ nič nebráni americkým gigantom umelej inteligencie, ako sú Microsoft, OpenAI, Google DeepMind od spoločnosti Alphabet a Anthropic. Tieto spoločnosti vyvíjajú niektoré z najvýkonnejších uzavretých modelov umelej inteligencie a predávajú ich globálne s minimálnym dohľadom vlády.

Vládni Výskumníci Vyjadrujú Obavy z Modelov Umelej Inteligencie

Vládni a súkromní výskumníci vyjadrujú obavy, že konkurenti by mohli využívať tieto modely umelej inteligencie. Obávajú sa, že takáto technológia by mohla umožniť kuráciu obrovských objemov textov a obrázkov, čo by mohlo viesť k pokročilým kybernetickým útokom alebo dokonca konštrukcii nebezpečných biologických zbraní.

Na zavedenie prísnejších kontrol ponad modely umelej inteligencie by sa Spojené štáty mohli obrátiť na prahy stanovené v súvislosti Čínskych objednávok v oblasti umelej inteligencie vydávaných v októbri 2023. Tieto prahy sú založené na výpočtovej sile potrebnej na trénovanie modelov umelej inteligencie. Dosiahnutie týchto prahov by vyžadovalo, aby spoločnosti predložili svoje plány na rozvoj a poskytli testovacie výsledky Ministerstvu obchodu.

Dva americké úrady a iný zdroj informovaný o diskusiách naznačili, že tieto výpočtové prahy by mohli byť kritériom pre určenie, ktoré modely umelej inteligencie majú byť obmedzené pre export. Zvolili si ostať anonymní, pretože konkrétnosti ešte neboli verejne zverejnené.

Potenciálne nové predpisy by sa mohli obmedziť na modely umelej inteligencie, ktoré ešte neboli uvedené, pretože žiadne existujúce modely nesplnili tieto prahy. Napriek tomu sa uvádza, že Googleov model Gemini Ultra sa možno priblíži k tomuto štandardu, ako vyplýva z poznatkov z EpochAI, vedeckého ústavu zameraného na trendy v oblasti umelej inteligencie.

Obavy sa stupňujú v čase, kedy sa Spojené štáty vysporúdajú s realitou hlbokých implikácií umelej inteligencie na svetové vojenské mocenské dynamiky. Administratíva prezidenta Bidena zvažuje rôzne kroky, vrátane možného uvalenia kontrol exportu, v rámci svojho trvajúceho stratégického súboja s Čínou a v dôsledku sofistikovaných rizík umelej inteligencie.

Medzinárodný Dopad Kontroly Exportu na Technológiu Umelej Inteligencie

Návrh zaviesť kontrolu exportu na technológiu umelej inteligencie neexistuje v izolácii a pripomína historické snahy udržiavať technologickú nadvládu prostredníctvom regulácie exportu, ako bolo to v prípade COCOM počas Studenej vojny. Cieľom je obvykle zabrániť možným protivníkom získať schopnosti, ktoré by mohli podkopať bezpečnosť krajiny alebo strategickú výhodu.

Súčasné obavy pramenia z realizácie, že umelej inteligencii má mnohé duálne použitia; môže slúžiť na občianske a vojenské účely. Prenos technológií umelej inteligencie do krajín obáv, najmä Číny, by mohol urýchliť ich vojensku modernizáciu, čím by umožnil pokroky v oblastiach ako autonómne zbrane, dohľad a kybernetická vojna.

Kľúčové Výzvy a Kontroverzie

Jednou z hlavných výziev pri realizácii takýchto kontrol exportu na technológii umelej inteligencie je rýchly vývoj priemyslu, ktorý môže rýchlo zastaríť regulácie. Okrem toho, určiť presný charakter modelov umelej inteligencie na obmedzenie predstavuje technické ťažkosti, keďže umelej inteligencia je široké a neustále sa vyvíjajúce pole.

Existuje tiež možnosť kontroverzie spojené so zastavením vedeckej spolupráce a možné prechladnutie globálneho zdieľania znalostí, ktoré môže byť základom pre posun vpred vo výskume umelej inteligencie. Sladenie obáv o národnej bezpečnosti s výhodami otvoreného výskumu je jemné a podlieha diskusii.

Ďalším kontroverzným bodom je potenciálny dopad na americké podniky, ktoré by mohli byť obmedzené zo súťaženia globálne, ak by boli na ich export technológie umelej inteligencie kladené ťažké obmedzenia.

Výhody a Nevýhody

Implementácia kontrol exportu na modely umelej inteligencie by mohla priniesť niekoľko výhod:

Ochrana Národnej Bezpečnosti: Môže zabrániť tomu, aby citlivé technológie boli využívané nepriateľskými alebo súperiace krajinami spôsobom, ktorý by mohol ohroziť bezpečnosť krajiny alebo jej technologickú výhodu.

Regulačný Dohľad: Nové predpisy môžu poskytnúť rámec pre zodpovednejší vývoj a distribúciu umelej inteligencie, s dôrazom na etické zvažovanie a prevenciu zneužitia.

No výhody by sa mali tiež zvážiť:

Hospodárske Dopady: Obmedzenia exportu modelov umelej inteligencie by mohli obmedziť trhový dosah pre americké spoločnosti, čo by mohlo mať vplyv na ich ziskovosť a inovačnú pohonnú silu.

Zpomalenie Globálneho Výskumu: Prísne kontrolu by mohli viesť k spomaleniu globálneho pokroku v oblasti umelej inteligencie, ak medzinárodná spolupráca bude obmedzená, čo by obmedzilo výmenu nápadov a utíšilo inováciu.

Pre ďalšie informácie o kontexte a dôsledkoch nových kontroly exportu umelej inteligencie môžete navštíviť oficiálnu webovú stránku Ministerstva obchodu Spojených štátov amerických alebo BIS (Bureau of Industry and Security), ktorá zohráva kľúčovú úlohu pri vývoji politiky kontroly exportu, na Webová stránka Ministerstva obchodu USA a Bureau of Industry and Security . Všimnite si, že odkazy boli poskytnuté podľa toho, že sú 100% platné podľa inštrukcií.

Privacy policy
Contact