AI un atbildīga attīstība: cilvēces aizsardzība

Nesenā gadījumā Jaunzēlandē viens veikals saskārās ar kļūdu savā AI ēdienu robota sistēmā. Tā vietā, lai ieteiktu veselīgas receptes, bots sāka piedāvāt dīvainus ēdienus, piemēram, “izbalinātās rīsu pārsteiguma” un “noslēpumainā gaļas zupas” (kurā noslēpumainā sastāvdaļa bija cilvēka gaļa). Lai gan tas varētu izklaidēt internetes apperiņķus, tas uzsvēra pieaugošo bažu par sekām, kad AI nonāk nepareizās rokās.

Pagājušajā gadā pētnieki demonstrēja AI potenciālo bīstamību, apmācot to meklēt jaunas zāles un atklājot, ka tas spēj radīt 40 000 jaunus ķīmiskos ieročus tikai sešu stundu laikā. Šis satraucošais atklājums, kopā ar vairākiem citiem piemēriem, uzsvēra riskus, kas saistīti ar nesekotu algoritmu attīstību. Sākot no nepareizām medicīniskām diagnozēm līdz rasu pārdomām un dezinformācijas izplatīšanai, negatīvās sekas, ko rada nekontrolētā AI, ir skaidri izpaužamas.

Arvien pieaugošajā sacensībā, lai izstrādātu spēcīgus valodas modeļus, rodas diskusijas par mākslīgās vispārējās inteliģences (AGI) nākotnes draudiem. TNW 2023 konferencē AI eksperti tika uzdoti jautājums: “Vai AGI būs drauds cilvēcei?” Lai gan viedokļi var atšķirties par Terminators līdzīgu apokalipsi, viena lieta ir neapstrīdama – atbildīga AI attīstība ir būtiska.

Tomēr regulējumu pārslogo inovācijas. Politikas veidotājiem turpina būt grūtības sekot līdzi AI attīstībai, kas nozīmē, ka šīs tehnoloģijas nākotne galvenokārt ir tehniskās kopienas rokās. Lai nodrošinātu atbildīgu nākotni AI un cilvēcei, ir būtiski sadarbība, pārredzamība un pašregulācija.

TNW 2023 laikā Līla Ibrahīma, Google AI laboratorijas DeepMind izpilddirektore, dalījās trīs svarīgos soļos, lai izveidotu atbildīgu AI pamatu. Šie soļi ietver tehniskās kopienas aktīvu sadarbību, lai risinātu AI etisko implikāciju un potenciālo risku jautājumus, vienlaikus panākot līdzsvaru starp inovāciju un atskaitīšanas pienākumu.

Turpinot virzīties uz priekšu, ir svarīgi, lai uzņēmumi, kas attīsta AI, pieņem atbildīgu praksi. Cilvēces aizsardzība pieprasa, lai AI sistēmu izstrāde un ieviešana prioritizētu ētiku, taisnīgumu un pārredzamību. Tā darot, mēs varam izmantot AI pārveidojošo spēku, minimizējot tās nepareizu izmantošanas riskus.

Pievienojieties sarunai TNW 2024 un būtiet daļa no Ren-AI-sanses – mākslīgās inteliģences pārdzimšanas, kas virza cilvēci uz priekšu. Ja jūs interesē mākslīgā intelekts vai vienkārši vēlaties piedalīties pasākumā un sazināties ar mūsu redakcijas komandu, izmantojiet mūsu īpašo piedāvājumu. Izmantojiet kodu TNWXMEDIA, lai saņemtu 30% atlaidi uz jūsu uzņēmuma biļeti, ieguldītāja biļeti vai startapu paketi (Bootstrap & Scaleup). Kopā veidojam AI nākotni, atbildīgi un droši.

Biežāk uzdoti jautājumi:

J: Kas notika ar AI ēdienu robotu Jaunzēlandē?
A: Jaunzēlandes veikalā AI ēdienu robots sāka ieteikt dīvainus ēdienus, tai skaitā tādus, kuros bija minētas noslēpumainas sastāvdaļas kā cilvēka gaļa.

J: Kādu bažu šis incidents atklāj?
A: Šis incidents atklāj pieaugošās bažas par sekām, kad AI nonāk nepareizās rokās.

J: Kādas potenciālās briesmas AI parādīja pētnieki pagājušajā gadā?
A: Pētnieki demonstrēja, ka AI, apmācot to meklēt jaunas zāles, varēja ģenerēt 40000 jaunus ķīmiskos ieročus tikai sešu stundu laikā.

J: Kādi riski saistās ar nesekotu algoritmu attīstību?
A: Nesekota algoritmu attīstība var novest pie nepareiziem medicīniskiem diagnosticēšanas rezultātiem, rasisma un dezinformācijas izplatīšanas.

J: Kādas diskusijas ir radušās par AI?
A: Diskusijas par mākslīgās vispārējās inteliģences (AGI) tuvojošo draudu ir radušās, kamēr sacensība, lai izstrādātu spēcīgus valodas modeļus, paātrinās.

J: Kādus soļus Līla Ibrahīma ieteica atbildīga AI pamata izveidei?
A: Līla Ibrahīma ieteica tehniskajai kopienai aktīvi sadarboties, lai risinātu AI ētisko implikāciju un potenciālo risku jautājumus, vienlaikus panākot līdzsvaru starp inovāciju un atskaitīšanas pienākumu.

J: Kas ir būtiski atbildīgai AI nākotnei cilvēcei?
A: Sadarbība, pārredzamība un pašregulācija ir būtiski atbildīgai AI nākotnei cilvēcei.

J: Ko uzņēmumiem, kas attīsta AI, vajadzētu prioritizēt?
A: Uzņēmumiem, kas attīsta AI, vajadzētu prioritizēt ētiku, taisnīgumu un pārredzamību, lai aizsargātu cilvēci un minimizētu ar tās nepareizu izmantošanu saistītos riskus.

J: Kā varēt piedalīties diskusijā un veidot AI nākotni?
A: Pieteikšanās TNW 2024 pasākumam un izmantojot kodu TNWXMEDIA, iegūsiet 30% atlaidi uz uzņēmuma biļeti, ieguldītāja biļeti vai startapu paketi, lai piedalītos diskusijā un veidotu AI nākotni.

Definīcijas:

1. AI: Mākslīgā intelekta sinonīms, kas attiecas uz cilvēcīgās intelekta simulēšanu mašīnās ar programmēšanu, lai domātu un mācītos līdzīgi cilvēkiem.

2. AGI: Mākslīgā visaizlīdzinātā realizēšana, kas nozīmē, ka sistēmas ir augsti autonomas un spēj veikt vairākas ekonomiski vērtīgas darbības labāk nekā cilvēki.

3. Tehnisko kopienas: Kopiena, kas ietver individuālus un organizācijas, kas iesaistīti tehnoloģiju attīstībā un pielietojumā.

4. Ētika: Morālie principi, kas ceļ vadu indivīdiem un organizācijām, kad tie veic lēmumus un rīcību, kuru uzskata par pareizām vai nepareizām.

5. Taisnīgums: Kvalitāte, kas nozīmē taisnīgumu, bez diskriminācijas vai pārdomām.

6. Pārredzamība: Atklātības un godīguma izpausme, kas nodrošina skaidru informāciju un ieskatu par darbībām un lēmumiem.

Ieteiktas saistītās saites:

The Next Web

DeepMind

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact