Teadlased hoiatavad võimaliku AI apokalüpsise eest ja kutsuvad üles läbipaistvale arendamisele

Kunstliku intelligentsuse (AI) teadlased väljendavad suuri muresid järgmise põlvkonna AI-tehnoloogia suhtes, hinnates katastroofiliste tagajärgede suurt tõenäosust. Avatud kiri, mille autoriteks on juhtivatest AI-organisatsioonidest nagu OpenAI, Google DeepMind ja Anthropic endised ja praegused töötajad, annab märku hoiatavast tõenäosusest, et AI kiire areng võiks viia suurte kahjude tekkimiseni ning inimkonna väljasuremiseni, mis on selgelt ja vahetult ohtlik.

Kiri viitab 70%-lisele tõenäosusele, et AI tekitab inimkonnale tõsiseid kahjustusi, sensatsioonilisele ennustusele, mille tegi endine OpenAI teadlane Daniel Kokotajlo. Ta hoiatab, et ettevõtete siseriskide eetiliste ja turvariskide avatuse ja tõsise arvessevõtmise puudumise tõttu vaikitakse tihti maha töötajate mured ning avalikkust hoitakse teadmatuses murettekitavatest reaalsustest.

Kokotajlo süüdistas New York Times’i intervjuus OpenAI-d tõsiste tagajärgedega seotud võimalike tagajärgede alahindamises seoses üldise tehisintellektiga (AGI), mis on tehisintellekti tüüp, mis suudab valdada iga intellektuaalse inimmärgi. Ta on mures, et AGI võiks välja arendada juba aastaks 2027, mis võiks kaasa tuua hävitava võimekuse. Tema mured peegeldavad laiemat teaduslikku arutelu, kus rõhutatakse AI poolt tekitatud mitmete ohtude ulatust, alates informatsioonimanipulatsioonist kuni autonoomsete süsteemide riketeni ja diskrimineerimiseni, eskaleerudes inimkonna väljasuremise riskini.

Nendele süüdistustele järgnenud OpenAI väidab, et nad järgivad rangelt teaduslikke standardeid, et vähendada AI-ga seotud riske. Siiski pole need kinnitusi kaotanud laialdast ärevust. Avatud kiri nõuab suuremat läbipaistvust ja rangemat järelevalvet AI arendusfirmadele. Samuti nõutakse töötajatele anonüümsete aruandlusmehhanismide loomist riskide esitamiseks ilma kättemaksuhirmuta, eesmärgiga kaitsta inimkonna olemasolu.

Mured seoses AI-ga ja ees seisvate väljakutsetega

Põhiküsimused seoses võimaliku AI apokalüpsisega: Kui tõsised on seotud riskid seoses üldise tehisintellektiga (AGI)? Milliseid mehhanisme saab rakendada AI turvalise arengu tagamiseks? Kas sidusrühmade seas on konsensus vajaduse kohta läbipaistvuse ning järelevalve järele?

Põhitähelepanu on järgmistel aspektidel:
Autonoomia ja Kontroll: Kui AI süsteemid muutuvad võimekamaks, siis nende all hoidmine inimkontrolli all on põletav väljakutse. Riskid hõlmavad võimalust, et AI süsteemid võivad toimida viisil, mille loojad poleks soovinud või areneda inimaruusaamise ja -järelevalve kohal.
Eetilised ja Moraalsed Küsimused: AI kasutamine kriitiliste otsuste tegemisel võib tuua esile eetilisi küsimusi, nagu elu ja surma otsuste delegeerimine masinatele sõjategevuses või tervishoius.
Majanduslik Mõju: Arenenud AI võib kaasa tuua suuri häireid tööturul, põhjustades töökoha kadumist ja majandusliku ebavõrdsuse süvenemist.
Globaalne Regulatsioon: Ühtse rahvusvahelise raamistiku loomine AI valitsemiseks on oluline, et hallata konkurentsirõhku riikide ja ettevõtete vahel, mis muidu võiks viia riskantse võistluseni AGI suunas.

Läbipaistva AI arendamise eelised:
– Edendab usaldust avalikkuse ja sidusrühmade seas.
– Soosib koostööle suunatud lahendusi keerukatele väljakutsetele.
– Vähendab mittedoovide riski laiema järelevalve tõttu.

Puudused:
– Võib aeglustada innovatsiooni suurema bürokraatia tõttu.
– Võib potentsiaalselt avaldada intellektuaalomandit, viies majandusliku ebasoodsasse seisu ettevõtted.
– Risk avaliku või konkurentide poolt jagatava info valesti tõlgendamiseks.

Kontroversid:
– Tasakaalu leidmine tehnoloogilise progressi ja ohutusmeetmete vahel.
– AI-s esineva eelarvamuse tasakaalustamine ja tagamaks, et see teeb eetilisi otsuseid.
– Määrata, kui palju läbipaistvust on teostatav ilma konkurentsieeliste ohverdamata.

Lisateabe saamiseks AI ja selle tuleviku mõjude kohta vaadake juhtivate AI-uuringutega organisatsioonide veebisaite. Nende hulka kuuluvad OpenAI, DeepMindja Anthropic. Kuigi ma ei saa hõlbustada otsekontakte artiklitele või uuendada sisu uute URL-idega pärast minu teadmiste lõpetamist, arutlevad need allikad sageli AI valdkonna arengute ja murekohtade üle.

Privacy policy
Contact