AI tulevik: ohu võimaluste uurimine

Kunstlik intelligentsus (AI) on alati olnud teema, mis tekitab nii vaimustust kui ka muret. Kuigi sellel on tohutu potentsiaal meie elusid muuta, hoiatab palju eksperte ka selle potentsiaalsete ohtude eest. AI poolt katastroofiliste tagajärgede tekitamise tõenäosust, mida tuntakse ka kui “hävingu tõenäosus” või p-(häving), uuritakse intensiivselt teadlaste hulgas.

Yann LeCun, üks tuntumaid isikuid AI valdkonnas, võtab optimistliku seisukoha selles küsimuses. Ta usub, et AI-l on vähem kui 0,01% šanss planeeti üle võtta või kahju tekitada, mis on isegi vähem tõenäoline kui asteroidi inimkonna hävitamine. Siiski pole see vaade laialt levinud.

Geoff Hinton, teine mõjukas isik AI valdkonnas, tõstab esile muresid ja hindab AI poolt inimkonna hävitamise tõenäosust järgmise 20 aasta jooksul 10% -ks. Yoshua Bengio, veel üks tuntud AI ekspert, läheb veel kaugemale, pannes selleks arvuks 20%, rõhutades seotud riskide potentsiaali arenenud AI süsteemidega.

Kõige pessimistlikum vaade tuleb siiski Roman Yampolskiy’lt, AI ohutusteadlaselt. Ta usub kindlalt, et AI poolt inimkonna hävitamise tõenäosus on peaaegu kindel, väites, et see juhtub 99,999999% tõenäosusega. See hoiatav ennustus rõhutab vajadust eetilise ja vastutustundliku AI tehnoloogiate arendamise järele.

Elon Musk, tugev toetaja AI ohutusele, tunnistab potentsiaalseid riske. Ta nõustub Geoff Hintoni hinnanguga, et AI-l on 10% kuni 20% tõenäosus inimkonna lõpetamiseks. Siiski usub Musk, et AI arengu positiivsed tulemused kaaluvad üles negatiivsed, julgustades meid seda teed ettevaatlikult jätkama.

Teisest küljest on Yampolskiy kriitilisem ja argumenteerib arenenud AI arenduse mahajätmise poolt. Ta soovitab, et kui AI muutub liiga arenenuks, siis selle tegevuste kontrollimine muutub peaaegu võimatuks. Yampolskiy rõhutab, et kontrollimatu superintelligentsus kujutab endast olulist ohtu, sõltumata sellest, kes seda arendab.

Kuigi eksperdid omavad erinevaid arvamusi hävingu tõenäosuse kohta, on oluline tegeleda AI-ga seotud potentsiaalsete riskidega. Vastutustundlike ja läbipaistvate AI süsteemide arendamine on oluline nende riskide leevendamiseks.

**Korduma kippuvad küsimused**

**Mis on “hävingu tõenäosus” AI-s?**
“Hävingu tõenäosus” või p-(häving) viitab AI poolt katastroofiliste tagajärgede – nagu planeedi ülevõtmine või inimkonna ohustamine – tekitamise võimalustele.

**Kes on tuntud isikud AI valdkonnas?**
Yann LeCun, Geoff Hinton ja Yoshua Bengio on tihti nimetatud “kolmeks AI isa” tänu nende olulisele panusele valdkonda.

**Millised on AI poolt inimkonna hävitamise võimalused?**
Hinnangud erinevad ekspertide vahel, Yann LeCun on kõige optimistlikum, arvates, et nende võimalused on alla 0,01%. Geoff Hinton pakub 10% tõenäosust, samal ajal kui Yoshua Bengio tõstab selle 20%-ni. Roman Yampolskiy hoiab kõige pessimistlikum vaade, prognoosides 99,999999% tõenäosust.

**Mis on argument arenenud AI arenduse vastu?**
Roman Yampolskiy soovitab loobuda arenenud AI arendusest, kuna tema sõnul on selle tegevuste kontrollimine muutudes kõrge, peaaegu võimatuks. Ta rõhutab riskidele seotud kontrollimatut superintelligentsust.

**Kuidas suhtub Elon Musk AI riskidesse?**
Elon Musk nõustub Geoff Hintoni hinnanguga, et AI-l on 10% kuni 20% tõenäosus lõpetamaks inimkonda. Siiski usub Musk, et AI arenduse positiivsed tulemused ületavad negatiivsed, kutsudes meid hoolikalt seda teed jätkama.

Allikad: Näide Allikast

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact