Virzīties pa etisko ceļu uzlabotās AI jūrās

Kontroversiālas perspektīvas par IA etiķeti radušās no OpenAI

Nesenās notikumu attīstības, kas uzliek uzsvaru uz spriedzi starp progresu un piesardzību tehnoloģiju nozarē, izdarīja Džīns LeCun, izstājoties no OpenAI, slavenas mākslīgā intelekta pētniecības organizācijas. LeCun vadīja komandu, kas veltījās risku mazināšanai, kas saistīti ar AGI—Mākslīgā Pamatintelekta—izveidošanu ar iespējām, kas ir līdzvērtīgas vai pārsniedz cilvēka iespējas.

LeCun bija kļuvis arvien vairāk uztraucies par nesakritību ar OpenAI vadību attiecībā uz uzņēmuma prioritātēm. Viņš uzskatīja, ka būtu vairāki ieguldīti resursi, lai nodrošinātu, ka nākamie AGI modeļi ir droši un būtu sabiedriski noderīgi, paužot bažas par to, kādiem secinājumiem nozares uzņēmums dod pirmsākumus šajā ziņā.

IA drosība tiek novākta greznām inovācijām

LeCun kritizēja OpenAI, norādot, ka vienreiz tik izcilais drošības kultūras noskaņojums bija pieviltas atraidošo produktu attīstību, atstājot kritiskos drošības procesus fonā. Viņš nodod šo ziņojumu sociālajos medijos, mudinot nopietnu iesaistīšanos potenciālajos AGI sekās.

Silīcijas ielejas noslēpumaina kultūra

Saruna par AGI un tās sabiedrisko ietekmi komplicējas ar ziņu par greznu dzīvesveidu dažu no nozares elites pārstāvju vidū. Zināmās ziņas par bagātīgām ballītēm un psihedēlisku narkotiku lietošanu izgaismo sarunu par problēmātisku sociālo dinamiku nozarē, kas varētu nostumt kritisko sarunu par IA drošību.

Neskatoties uz savu ārpusēju statusu, Sonija Džozefa, mašīnmācīšanās eksperte no Prinstonas, sniedza ieskatu Silīcijas ielejas neskaidrajās privātajās lokās, kur ietekmīgie tehnoloģiju personības sapulcējas. Viņas ieskati norāda uz plašāku sistēmisko vājumu, kas potenciāli ietekmē IA attīstības komandas kopumā, tostarp OpenAI.

Kad AGI attīstības meklējumi kļūst intensīvāki, tehnoloģiju kopiena atrodas krustcelēs, līdzsvarojot intelektuālās pārredzēšanas meklējumus ar būtiskajiem pasākumiem, lai nodrošinātu cilvēces nākotni.

Privacy policy
Contact