Hindamaks täiustatud tehisintellekti võimalikke ohte

OpenAI-s tekkivate sandete üle ohutusest tekkinud mure tekitab sisemist rahulolematust

Juhtiv tehisintellekti uurimislab, OpenAI, seisab silmitsi sisemise vastuseisuga oma lähenemisviisi suhtes tehisintellekti ohutusele. Endised töötajad ja praegused meeskonnaliikmed on avaldanud avaliku kirja kaudu dissensust, viidates turvalisusküsimuste mahasurumisele seoses tehisintellekti arengutega. Nad hoiatavad märkimisväärsete tõenäosuste eest, et tehisintellekt võib põhjustada hävingut või tõsist kahju inimkonnale.

Endine teadur Daniel Kokotailo kritiseeris ettevõtet selle eest, et nad eirasid tehisüldintellektiga (AGI) seotud hiiglaslikke riske. Ta edastas karmi ennustuse 70% tõenäosusega, et AGI võiks tähendada inimtsivilisatsiooni lõppu.

Kokotailo liitus OpenAI-ga 2022. aastal ja talle anti ülesandeks ennustada tehnoloogia tulevikku. Ta veenis end, et AGI on lähedal aastaks 2027 ja sel on katastroofist potentsiaal.

Risk kiirele liikumisele superintelligentse tehisintellekti poole

Kirja sisu, mis sisaldab infot Google DeepMind’i ja Anthropicu tegelaste ning tehisintellekti kõrgeima auastme kandja Geoffrey Hintoni osalusel, näitab konsensust, et avalikkus peab olema teadlik tehisintellektiga seotud riskidest.

Kokotailo oli tehisintellekti poolt kujutatava ohu pärast nii mures, et isiklikult kutsus OpenAI tegevjuhi Sam Altmani tungivalt üles prioriteetseks pidama turvameetmete rakendamist tehnoloogia intelligentsuse edasi arendamise asemel. Kuigi Altman nõustus suuliselt, tundis Kokotailo, et tegelikult polnud ettevõte valmis arengut ohutuse huvides aeglustama.

Pettytunult lahkus Kokotailo aprillis, teatades oma usalduse kaotamisest OpenAI vastutustundlikus käitumises meiliteel oma meeskonnaga, mida jagati The New York Times’iga.

Vastuseks tekkinud muredele on OpenAI väljendanud uhkust võimekate ja turvaliste tehisintellektisüsteemide arendamisel ning jääb truuks oma teaduslikule lähenemisele riskide haldamisel. Lisaks rõhutas ettevõte töötajatele murede avaldamiseks mõeldud kanaleid, sealhulgas anonüümset aususööndit ja Turvalisuse ja Turvalisuse komiteed.

Tuleviku järelvalve tehisintellekti üle

See arenev stsenaarium toob esile pinge kiire arenevate tehisintellekti lahenduste ja ettevaatlikkuse vahel, et vältida võimalikke ohte. Tehisintellekti kogukonnale kutsutakse tungivalt üles jätkama tugevaid arutelusid ja tegelema erinevate sidusrühmadega, et navigeerida selle muunduva tehnoloogia eetiliste ja turvakaalutluste vahel.

OpenAI-s esitatud mured kajastavad laiemat vestlust tehnoloogiakogukonnas edasijõudnud tehisintellekti potentsiaalsete ohtude üle. Sellest vestlusest tekib mõned põhiküsimused, nagu:

1. Kuidas tagada tehisintellekti ohutu areng?
2. Milliseid regulatsioone, kui üldse, tuleks tehisintellekti arendamisele kehtestada?
3. Kes vastutab edasijõudnud tehisintellekti tegevuste tagajärgede eest?
4. Kuidas võime ära hoida tehisintellekti tahtmatuid tagajärgi?
5. Kui lähedal oleme tõelise AGI arendamisele ja milliseid ennetusmeetmeid saame võtta?

Neile küsimustele vastamine hõlmab mitmeid väljakutseid ja vaidlusi, nagu:

Konkurents versus Ohutus: Innovatsiooniks survestamine ja ettevaatlikkuse vajadus loovad omavahelise pinge. Ettevõtted ja riigid võivad olla vastumeelsed arengut aeglustama, kartes konkurentsis maha jäämist.
Regulatiivsed raamistikud: Uute seaduste ja juhiste väljatöötamine tehisintellekti juhtimiseks võib olla aeglane ega pruugi sammu pidada tehnoloogiliste arengutega.
Maailma koostöö: Kuna tehisintellekti arendamine on rahvusvaheline, on globaalne koostöö hädavajalik. Siiski võivad geopoliitilised pingeid takistada seda koostööd.
Avatus: Eraettevõtted ei pruugi alati olla läbipaistvad oma tehisintellekti võimaluste ja turvameetmete suhtes, mis võib suurendada turvariske.

Kohta edasijõudnud tehisintellekti eeliste ja puuduste kohta:

Eelised:
– Suurenenud efektiivsus ja tootlikkus erinevates valdkondades.
– Tervishoiu arengud, nagu personaalne meditsiin.
– Andmeanalüüsi parendamine, viies paremate otsusteni.
– Rutiinsete ja ohtlike ülesannete automatiseerimine.

Puudused:
– Massiline töötus võib tekkida automatiseerimisest.
– Oht, et tehisintellektisüsteeme kasutatakse valesti või põhjustavad tahtmatut kahju.
– Eetilised mured jälgimise ja privaatsuse üle.
– Probleemid seotud keerukate tehisintellektisüsteemide juhtimise ja mõistmisega.

Soovitatavad seotud lingid:

– Uusimate uudiste saamiseks tehisintellekti ja eetika kohta on usaldusväärne allikas MIT Technology Review.
AIEthics Lab pakub tehisintellektiga seotud eetiliste küsimuste kohta sisendit.
– Süvenemiseks akadeemilistesse uurimustesse tehisintellekti ohutuse kohta avaldab DeepMind sel teemal artikleid ja uurimusi.
Future of Life Institute on organisatsioon, mis keskendub inimkonnale eksistentsiaalsetele ohtudele, kaasa arvatud need, mida tekitab tehisintellekt.

OpenAI-s toimuv näide toimib hoiatava loona lõhe kohta tipptasemel tehnoloogia taotlusliku tagaajamise ja ohutusalaste ja eetiliste kaalutluste vahel. See rõhutab vajadust tasakaalustatud lähenemise järele, kus innovatsioon lõimub tugevate ohutusprotokollide ja eetikanormidega, mida toetab globaalne koostöö ja järelevalve.

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact