Peamine oht, mida kujutab endast tehisintellekti võimalik üldine teadlikkus rahvusvahelisele julgeolekule

AI eksperdid väljendavad muret AGI kiire arengu pärast
Endine OpenAI töötaja Leopold Ashenbrenner kirjutas essees välja murelikkuse Kunstliku Üldintellekti (AGI) kiire arengu pärast. Teos oli osa Situational Awareness algatusest ja pühendatud OpenAI kaasasutajale Ilya Sutskeverile, kes on hiljuti oma ametikohalt tagasi astunud.

Ashenbrenner väidab, et AGI arendusvõistlused on juba käimas ning ennustab, et alates 2020. aastate keskpaigast saavad need masinad ületama mitmete kolledži lõpetajate mõttevõime. Ta ennustab riiklike julgeolekuasutuste sekkumist, mis viib USA valitsuse AGI projekti tekkimiseni hilises 2020. aastates.

AI korporatsioonid kutsutud üles laiendama riskide avaldamise õigusi
AI-korporatsioonide töötajad on nõudnud õiguste laiendamist, et avaldada potentsiaalselt ohtlikku korporatiivset informatsiooni, tuues esile läbipaistvuse puudumise nende AI süsteemide võimete, piirangute ja potentsiaalsete riskide osas. Rühma kuuluvad praegused ja endised töötajad OpenAI-st, Google DeepMind-ist ja Anthropic-ust, kes väidavad, et AI hiiglased on tõhusalt vastutustundetud ilma range valitsuse järelevalveta.

Ettepanekud tundliku AI informatsiooni käsitlemiseks
Hirmude ja riskide leevendamiseks seoses AI-ga soovitavad autorid, et ettevõtted võtaksid kasutusele teatud põhimõtted. Nende hulka kuuluvad kokkulepped, et töötajaid ei piirata ettevõtte kriitikast, tagada vahistajate anonüümsus, hoida avatud kriitikakultuuri ja hoiduda vastumeetmetest töötajate suhtes, kes avaldavad muresid.

Lisas annab essees märku, et oluline on mitte jätta AI turvasektorit teisejärguliseks ning et teadusasutused võivad kogemata anda AGI tehnoloogia vaenulikele jõududele, näiteks Hiina Kommunistlikule Parteile. Ashenbrenner hoiatab, et AGI arendamine võib tõepoolest olla ellujäämismäng vabadele ühiskondadele, väites, et need, kellel on siseteave AI tehnoloogia arendamise kohta, on inimkonna tuleviku peamised mõjutajad.

Kasvava ohuna reguleerimata AGI areng
Ohtudega seotud AGI arenduse kontrollimata areng laieneb kaugemale individuaalsetest organisatsioonidest ja võib omada potentsiaalselt globaalseid tagajärgi. Kuigi tuuakse esile konkreetseid korporatiivseid muresid, hõlmab laiem vestlus AGI-st eetilisi, poliitilisi ja strateegilisi mõõtmeid, mis võivad mõjutada globaalset julgeolekut.

Põhilised küsimused ja vastused AGI riskide kohta
1. Millised on peamised globaalsed julgeolekuriskid, mida AGI toob kaasa?
AGI võib potentsiaalselt kasutada automatiseeritud küberrünnakuteks, kriitilise infrastruktuuri häirimiseks ja arenenud sõjaliste tehnoloogiate väljatöötamiseks. Lisaks võib AGI süvendada globaalseid ebavõrdsusi ja destabiliseerida rahvusvahelisi suhteid, kui sellest saab strateegiline vara, mis on kontsentreeritud väheste kätte.

2. Kuidas saaks AGI arengut reguleerida, et välistada väärkasutus?
Rahvusvaheline koostöö, regulatiivsete raamistike loomine ja läbipaistvus AGI arendavate üksuste vahel võivad aidata riskide leevendamisel. Tugevad kinnitamismehhanismid tagamaks vastavust kokkulepitud standarditele on samuti olulised.

3. Millised eetilised kaalutlused on kaasatud AGI arendusse?
Hirmud hõlmavad töökohtade asendamist, privaatsuse riske ning väljakutseid autonoomia ja agentuuri osas, kui masinad langetavad otsuseid inimeste eest. Lisaks on küsimus, kuidas AGIsid ennast koheldakse – kui neil peaksid olema omadused, mis sarnanevad tajumisele, on eetiliseks vaidluseks.

Põhilised väljakutsed ja vastuolud
Peamine väljakutse seisneb innovatsiooni ja ohutuse tasakaalus hoidmises, tagades, et AGI süsteemid ei jätkaks kontrollimatult, riskides ettenägematute tagajärgedega. Teine vastuolu hõlmab potentsiaali AGI relvaralliks riikide vahel, kui igaüks püüab saavutada ülemvõimu selles strateegilises tehnoloogias.

AGI eelised ja puudused
AGI eelisteks on olulised edusammud tervishoius, hariduses ja teadustöös, kuna see suudab kiiresti töödelda ja sünteesida suuri infokoguseid. Siiski kuuluvad puuduste hulka talitlushäirete riskid, kuritarvitamise võimalus ja AGI autonoomia ettearvamatus, mis võib viia tagajärgedeni, mida on keeruline kontrollida või tagasi pöörata.

Seotud lingid
Rohkema info saamiseks tehisintellektist ja globaalsest julgeolekust võite külastada valdkonna juhtivate organisatsioonide ametlikke veebisaite:
OpenAI
DeepMind
Anthropic

Arvestades AGI endises staadiumis olekut ning selle kiiret arengutempo, ei saa alahinnata selle valdkonna pideva uurimistöö, dialoogi ja poliitikakujundamise olulisust. Otsustajad alates tehnoloogidest kuni poliitikuteni peavad koostööd tegema, et kasutada ära AGI lubadusi ja samas kaitsta selle potentsiaalseid ohte globaalsele julgeolekule.

The source of the article is from the blog j6simracing.com.br

Privacy policy
Contact