Mākslīgā intelekta: Praktiskuma paradigma izsklaidīta?

Pārāk cilvēcīgā superhumānā mākslīgā intelekta, kas agrāk bija fokusēta pētniecības tēma OpenAI, ir piedzīvojusi nozīmīgu maiņu, jo veltītiejā komanda, kas izpēta superinteliģentā intelekta drošību, tika ziņots tikuši izjaukta. OpenAI bija izveidojis specializētu vienību, ko sauc par “Superalignment Team”, pagājušā gada jūlijā. Šai komandai bija uzdevums noskaidrot metodes, kā kontrolēt AI sistēmas, kas ir gudrākas par cilvēkiem. Veicot ambiciozu soli, OpenAI saglabāja ievērojamu 20% no savas skaitļošanas jaudas četru gadu laikā šajā pētījumu jomā.

Tomēr komanda kopš tās izveides ir izjaukusies, mazāk nekā gadu vēlāk. Ilja Sutkevers, OpenAI dibinātājs un vadījošais zinātnieks, kā arī citi nozīmīgi cilvēki bija iesniguši. Aiziešanas sākās pēc augstas profila CEO grozījumiem, kas iesaistīja Sāmu Altmanu pagājušajā novembrī, liecinot par turpmākiem nesaprašanās jautājumiem saistībā ar AI attīstību un komercializāciju. Wired un līdzīgas ASV IT vietnes atspoguļoja šo norisēm pašreizējā mēneša 17. dienā.

Drozība cieši sekoja pārējušiem un satrauktībai no Sutkevera un Jana Leike, ko viņi izteica caur to, kas bija pazīstams kā Twitter. Viņi savos ziņojumos uzsvēra drošības nepieciešamību. OpenAI prezidents Gregs Brokmans, kopā ar CEO Sāmu Altmanu, ir publicējuši paziņojumu, kurā atzīst drošības nozīmīgumu, aicinot uzturēt ciešu atgriezenisko savienojumu, stingru testēšanu un rūpīgu izvēršanu katrā posmā, kopā ar augsta līmeņa drošību, lai savienotu drošību ar veiktspēju.

Visbeidzot, OpenAI ir izvēlējies iekļaut drošības prakses visos pētījumos, nekā nekā uzturēt atsevišķu struktūru. AI līdzināšanās pētījumu uzraudzību tagad vada viens no līdzdibinātājiem, Džons Šulmens. TechCrunch ir paudusi bažas, ka OpenAI fokuss uz drošību var nebūt tik spēcīgs kā iepriekš saistībā ar šiem pārmaiņām.

Mākslīgā intelekta (AI) drošība: AI drošība ir nozīmīga joma AI pētniecībā, kas nodarbojas ar to, lai AI sistēmas darbotos benevolentā un nekaitīgā veidā cilvēkiem. Ņemot vērā OpenAI specializētā superinteliģentā AI drošības komandas izjaukšanos, tagad ir būtiski jautājumi, kas jārisina: kā AI drošība tiks prioritizēta un integrēta uzlabota AI sistēmu attīstībā?

Baiļu apkārtējās attiecībās uz attīstību AI ietilpst potenciālā kaitējums no AI mērķu neiznīcināšanas ar cilvēku vērtībām un iespēja autonomu AI sistēmu pieņemt lēmumus bez cilvēka uzraudzības. Šīs bailes nav unikālas OpenAI; tās ir plašāka debates jautājuma AI kopienai par sekām, izveidojot sistēmas, kas vienu dienu varētu pārsniegt cilvēku inteliģenci.

Iespējas un trūkumi: Ieguvumi no AI drošības integrēšanas visos pētījumos ietver plašāku pieeju drošībai, veicinot drošības kultūru starp visiem pētniekiem un veicinot inovatīvākas risinājumus, iznīcinot silos. Tomēr trūkumi var ietvert samazinātu fokusu uz AI drošību konkurencei dēļ, samazinātu specializēto ekspertīzi darbam ar unikāliem superinteliģentiem AI izaicinājumiem, un risku, ka drošības apsvērumi varētu būt pārklāti ar komerciālajām mērķiem.

Tiem, kas interesējas palikt informētiem par attīstību AI un drošības pētījumos, ieteicams apmeklēt šo galveno domēnu:
OpenAI

OpenAI lēmums integrēt drošības prakses visos saviem pētījumiem atspoguļo stratēģijas maiņu, kas turpinās būt debates un uzraudzības temats AI kopienā. Nodrošinot uzlabotas AI sistēmu drošību turpina būt kritisks jautājums, jo šo sistēmu spējas strauji uzlabojas.

The source of the article is from the blog scimag.news

Privacy policy
Contact