Maailmas, kus valitseb tehisintellekt, võivad isegi peened ebakõlad tekitada tõsiseid probleeme

Kunstliku intelligentsuse (KI) kiire areng toob endaga kaasa mitmeid eeliseid ja riske. OpenAI tegevjuht Sam Altman on hiljuti käsitles seda muret, rõhutades potentsiaali “väga peente ühiskondlike ebakõladega”, mis võivad tuua kaasa laastavaid tagajärgi. Altman usub, et kuigi tänavatel rändavad surmav KI robotid võivad tunduda ilmselge ohuna, kujutavad suuremat ohtu varjatud ühiskondlikud ebakõlad.

Altmani peamine mure ei keskendu maailmalõpu stsenaariumidele, vaid pigem taunitakse juhuslike õnnetuste tekkimist KI kasutuselevõtu korral ühiskonnas. Kuigi KI-l on võim parandada elukvaliteeti ja tugevdada ühiskonda, on hädavajalik tegeleda ka selle tehnoloogia potentsiaalsete negatiivsete külgedega. Altman tunnistab tulevikuvõimalust, kus inimesed saavad kvaliteetsema elu kõrgema standardi läbi laialdasele juurdepääsu kõrgtasemelisele intelligentsusele.

Katastroofiliste tagajärgede ärahoidmiseks toetab Altman ülemaailmse organi loomist, mis vastutaks KI järelevalve eest, sarnaselt Rahvusvahelise Aatomienergiaagentuuriga. See järelevalvesüsteem määratleks vajalikud auditeerimis- ja ohutusmeetmed enne ülitarga või üldise tehisintellekti (AGI) kasutuselevõttu.

Reguleeriva aspekti arvestamisel tunnistab Altman jätkuvaid arutelusid ja vaidlusi KI üle. Siiski rõhutab ta vajadust ülemineku järelemõtlemise ja tegevuskava etapis, mis saavutaks rahvusvahelise konsensuse ja koostöö.

Kuigi OpenAI on oluline tegija KI valdkonnas, rõhutab Altman, et regulatsioonide kehtestamise vastutus ei tohiks ainult ettevõtte õlul lasuda. Ta osaleb aktiivselt seadusandjatega Capitol Hillil, et tegeleda KIga seotud riskidega ja töötada nende vähendamise nimel.

Kuigi OpenAI on saanud märkimisväärseid investeeringuid Microsoftilt ja on partnerluses Associated Pressiga, et koolitada oma KI süsteeme, on ettevõte seadusliku järelvalve all seoses oma juturobotite koolitamisprotsessiga. The New York Times esitas hagiavalduse, süüdistades Microsofti ja OpenAI’d miljonite artiklite kasutamises oma KI mudelite treenimiseks autoriõiguse rikkumises.

Kiiresti arenevas KI maailmas on oluline leida õrn tasakaal edasimineku ja ettevaatuse vahel. Altmani üleskutse ettevaatlikuks reguleerimiseks ja ühiskondlike ebakõladega arvestamiseks rõhutab koostöövajadust, et kasutada ära KI täielik potentsiaal, vähendades samal ajal selle riskide mõju maailmale.

Sagedased küsimused:

1. Millised on tehisintellekti (KI) potentsiaalsed riskid?
KI kiire areng toob endaga kaasa nii eeliseid kui ka riske. OpenAI tegevjuht Sam Altman rõhutab potentsiaali “väga peente ühiskondlike ebakõlade” osas, mis võivad kaasa tuua laastavaid tagajärgi. Ta usub, et KI kasutuselevõtu tagajärjel tekkivad tahtmatud õnnetused kujutavad suuremat ohtu kui ilmselged ohtud, nagu surmavad KI robotid.

2. Milles seisneb Altmani peamine mure seoses KI kasutuselevõtuga?
Altmani peamine mure seisneb KI kasutuselevõtu juhuslike negatiivsete tagajärgede osas ühiskonnas. Kuigi KI võib parandada elukvaliteeti ja tugevdada ühiskonda, on oluline tegeleda ka selle tehnoloogia negatiivsete aspektidega. Altman pooldab ülemaailmse organisatsiooni loomist, mis vastutaks KI üle järelevalve eest ning määraks kindlaks auditeerimis- ja ohutusmeetmed.

3. Mida Altman soovitab katastroofiliste tagajärgede ärahoidmiseks?
Altman soovitab luua rahvusvahelise organisatsiooni, mis sarnaneks Rahvusvahelise Aatomienergiaagentuuriga ja tegeleks KI järelevalvega. See organisatsioon määratleks vajalikud ohutusmeetmed enne ülitarga või üldise tehisintellekti (AGI) kasutuselevõttu.

4. Kuidas Altman rõhutab vajadust reguleerimise järele?
Altman tunnistab käimasolevaid arutelusid ja vaidlusi KI reguleerimise teemal, kuid kutsub üles üleminekule arutelust tegevuskavale, mis saavutaks rahvusvahelise konsensuse ja koostöö. Ta tegeleb aktiivselt seadusandjatega, et käsitleda KIga seotud riske.

5. Milliseid õiguslikke probleeme on OpenAI’l esinenud?
OpenAI on sattunud õigusliku järelvalve alla seoses oma juturobotite koolitamisprotsessiga. The New York Times esitas k

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact