Jauns brīdinājums izdots par iespējamo risku, ko rada jaunās Progresīvās intelektuālās tehnoloģijas.

Tehnoloģiju pionieri ieteica izrādīt piesardzību pret AI

Dokuments, ko nosaukuši “Tiesības brīdināt par uzlabotās mākslīgās intelekta riskiem”, pašlaik tiek koplietots tā autori, 13 speciālistu grupa, tai skaitā bijušie un esošie nozarē lielie uzņēmumi, piemēram, OpenAI, kurš izstrādāja ChatGPT, un Google. Vēstule, kas atbalstīta nozīmīgu figūru, piemēram, AI lumīna Džofrija Hintona, pauda dziļas bažas par potenciālajiem bīstamajiem apdraudējumiem, kas saistīti ar regulācijai nepakļautu mākslīgā intelekta attīstību un pielietojumu.

Saskaņā ar ātrās attīstības un arvien plašākās mākslīgā intelekta tehnoloģiju izplatības laikā, daudzi nozeltnieki un nevalstisko sektoru pārstāvji iznāca laukā pagājušajā gadā un pusotrs, lai brīdinātu sabiedrību un iestādes. Šo brīdinājumu, manifestu un atklāto vēstuļu apvienotais efekts uzsvēra augošo neērtību saistībā ar AI sekām un nepieciešamību ātrāk izskatīt tās pārvaldību un etiskās sekas.

Šis sākums ir tikai jaunākais ilgā sērija, lai izveidotu atbildīgu un informētu ceļu AI iekļaušanai sabiedrībā. Sarunas par inteliģentu sistēmu spējām, potenciālajām neskaidrībām, etiskajiem jautājumiem un cilvēku darba nākotni turpina pieaugt, jo AI kļūst aizvien vairāk iesakņojies ikdienas eksistences audumā.

Atvērtā vēstule ir pieejama plašākai sabiedrībai vietnē URL https://righttowarn.ai, aicinot ikvienu iesaistīties svarīgajā sarunā par AI nākotnes ceļu, atkārtojot kolektīvo uzskatu, ka saskaņas jautājums ietver daudz plašākas sabiedrības vidus, kā akadēmiskās aprindas vai tehnoloģiju uzņēmumi, iederējoties sevā kā pamatsabiedrībai interesējoša problēma.

Apgūstot uzlabotā AI risku sarežģītību

Pievēršanās augsti attīstītai mākslīgajai intelektai (AI) ietver tālredzīgus potenciālus un riskus, kas var ietekmēt gandrīz katru cilvēka dzīves aspektu. Ir vairāki iemesli, kāpēc eksperti pauž savas bažas. Nozīmīgi jautājumi un izaicinājumi, kas rodas, ietver to, kā nodrošināt AI etisko izmantošanu, novērst AI sistēmu iebildumus, aizsargāt privātumu un drošību, un pārvaldīt darbavietu pārvietošanu automatizācijas dēļ.

Svarīgie izaicinājumi un kontroverses:

Atbildība: Noteikt, kas ir atbildīgs par lēmumiem, ko pieņem AI sistēmas, it īpaši, ja šie lēmumi ved pie nevēlamām sekām, joprojām ir strīdīgs jautājums.

Etiskie aspekti: Nodrošināt, lai AI sistēmas atbilstu sabiedrības vērtībām un etikai, ir sarežģīti, ņemot vērā cilvēku etikas daudzveidību un attīstību.

Pārredzamība: Daudzas AI sistēmas, it īpaši tie, kas balstītas uz dziļo mācīšanos, bieži darbojas kā “melnburti”, ar lēmumu pieņemšanas procesiem, kas nav pilnībā saprotami cilvēkiem, radot uzticamības un atbildības jautājumus.

Datu privātums: AI sistēmas bieži pamatojas uz lielu daudzumu datu, rada bažas par privātumu un personīgo informāciju iespējamu ļaunprātīgu izmantošanu.

Drošības riski: AI var tikt izmantots jaunā veida kiberuzbrukumos, un pastāv arī risks saistībā ar AI dzenzebruņiem kara kontekstā.

Priekšrocības un trūkumi:

AI priekšrocības ietver palielinātu efektivitāti, izmaksu ietaupījumus, uzlabotu datu analīzi un ieskatu, ikdienas uzdevumu automatizēšanu un potenciālu atrisināt sarežģītas problēmas dažādās jomās, piemēram, veselības aprūpē, izglītībā un transportā.

Trūkumi ietver minētos riskus, kombinējot tos ar potenciālo cilvēku darba zaudējumu automatizācijas dēļ, sociālo nevienlīdzību iespējamību un iebildumu pastiprināšanos, ja AI sistēmas tiek apmācītas ar iebildumu pilniem datu kopumiem.

Sadarbība ar sarunu par AI nākotnes ceļu ir būtiska, jo AI ietekme uz sabiedrību nav jautājums, kas ierobežots ekspertiem, bet ietekmēs ikvienu. Plašāka sabiedrības iesaiste ir būtiska, un ieinteresētie var pievienoties sarunai, apmeklējot atklāto vēstuli vietnē Tiesības brīdināt par uzlaboto mākslīgo intelektu.

Tur individuāli un organizācijas var uzzināt vairāk un sniegt savu skatījumu par to, kā labāk vadīt AI potenciālās briesmas, vienlaikus izmantojot tās solījumu sabiedrības labā. Piedāvātā vietne ir iniciatīvas galvenais URL, nodrošinot tiešu piekļuvi iniciatīvas informācijai un jaunumiem.

[iebilst]https://www.youtube.com/embed/HMjPZlQAE0E

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact