OpenAI lahustab AI ohutuse meeskonna strateegiliste muutuste keskel

ÕppeAI, juhtiv tehisintellekti uurimisettevõte, on väidetavalt likvideerinud oma meeskonna, mis oli pühendunud tehisintellekti pikaajalistega seotud riskidele, kinnitas anonüümne allikas ka CNBC-le. See areng toimus vaid aasta pärast selle spetsialiseeritud grupi loomist organisatsiooni algatusel.

Endised meeskonnaliikmed on öeldavasti ümber paigutatud erinevatesse sektoritesse ettevõttes, näidates märkimisväärset ümberkorraldust. See uudis teatati lühidalt pärast Wiredi esialgset teadet ja järgides Ilya Sutskeveri, ÕppeAI kaasasutaja ja Jan Leike, meeskonna juhi lahkumist.

Jan Leike väljendas enne ettevõttest lahkumist avalikult muret ettevõtte praktikate pärast, vihjates ohutuskultuuri ja protokollide varjutamisele atraktiivsete toodete tähelepanu ahvatluse poolt.

Esialgu oli ÕppeAI-s nüüdseks juba likvideeritud Superalignment meeskonnal ülesandeks tagada, et ettevõtte tehisintellekti arendused jääksid kasulikuks ja haldatavaks, isegi kui nende intellektuaalne võimekus kasvab. Aastaid tagasi oli ÕppeAI pühendunud sellele ettevõtmisele 20% oma arvutusvõimsusest nelja aasta jooksul – pühendumus, mis näib nüüd kahanenud olevat.

Ettevõte pole antud küsimuses ametlikku avaldust teinud. Selle asemel viitas ÕppeAI hiljutisele kaasasutaja ja tegevjuhi Sam Altmani säutsule, väljendades tänu Jan Leike’ile tema panuse eest ning tunnistades vajadust jätkata pingutusi tehisintellekti kohandamise ja ohutusuuuringute osas.

Teine kaasasutaja Greg Brockman avaldas sotsiaalmeedias rõhku ettevõtte pühendumusele teadlikkuse suurendamisel üldise tehisintellekti (AGI) potentsiaalsetest eelistest ja tagasilöökidest, isegi kui nad jätkavad oma strateegia täiustamist hiljutiste sündmuste valguses. Brockmani avaldused tulid Leike’i kommentaaridele järgnedes seoses erinevusega ettevõtte operatiivsete prioriteetide ja tema visiooni vahel suurema rõhu asetamisel ohutusele ja ühiskondlikule mõjule paremate tehisintellektisüsteemide saavutamise nimel.

Põhiküsimused ja vastused:

K: Miks likvideeris ÕppeAI oma tehisintellekti ohutusmeeskonna?
V: Artikkel ei täpsusta likvideerimise täpseid põhjuseid. Siiski viitab see strateegilistele muutustele ja ümberkorraldustele ÕppeAI-s, mis on viinud meeskonna lagunemiseni. Meeskonnaliikmete ümbersuunamine viitab sellele, et ettevõte suunab oma fookust tõenäoliselt kiirematele eesmärkidele või erinevatele tehisintellekti ohutuse lähenemisviisidele.

K: Kes lahkusid ÕppeAI-st ja millised olid nende mured?
V: Kaasasutaja Ilya Sutskever ja meeskonna juht Jan Leike lahkusid ÕppeAI-st. Jan Leike väljendas muret asutuse ohutuskultuuri ja praktikate üle, vihjates, et ohutus võib jääda atraktiivsemate toodete arendamisele teisejärguliseks.

K: Mis oli Superalignment meeskonna eesmärk?
V: Superalignment meeskonna eesmärk oli tagada, et ÕppeAI poolt arendatud tehisintellekti tehnoloogiad jääksid kontrollitavaks ja kasulikuks, olenemata nende kasvavast intellektuaalsest võimekusest.

K: Kas ÕppeAI on avaralt kommenteerinud tehisintellekti ohutusmeeskonna likvideerimise kohta?
V: Ei, ÕppeAI pole selle küsimusele ametlikku avaldust teinud. Ettevõte on viidanud teemale vaid kaudselt sotsiaalmeedia postituste kaudu.

Põhilised väljakutsed või kontroversid:

Ohutus versus Kiirus: Üks suur kontrovers tehisintellekti väljal on tasakaalu leidmine tehnoloogia kiire arendamise ja selle ohutu toimimise vahel. ÕppeAI ohutusmeeskonna likvideerimine võib viidata murettekitavale muutumisele, kus kiirus prioriteetiks seatakse ohutusele.
Avalikustamine: ÕppeAI on ajalooliselt pleedinud läbipaistvuse eest tehisintellekti arendamisel, ent selge ametliku avalduse puudumine nii olulise astme kohta tekitab kahtlusi nende pühendumuse kohta avatusele.
Mõju tehisintellekti eetikale: Arvestades ÕppeAI mõju tehisintellekti kogukonnas, võib nende strateegia muudatusel olla laiemad tagajärjed nii teadus- kui arendustavade suhtes, mis on seotud tehisintellekti eetika ja ohutusega.

Eelised ja Puudused:

Eelised:
Vahendite ümberjaotamine: Ohutusmeeskonna likvideerimisega võib ÕppeAI suunata oma ressursse tõhusamalt nendesse valdkondadesse, mida peab kohe oluliseks.
Strateegiline paindlikkus: Ilma pühendunud ohutusmeeskonnata võib ÕppeAI suuta oma strateegiaid kiiremini muuta vastuseks konkureerivale tehnoloogilisele maastikule.

Puudused:
Ohutusalased mured: Likvideerimine võib ohustada tehisintellekti ohutuse tähtsust ning viia süsteemide arendamiseni ilma piisavate tagajärgedeta.
Avalik usaldamine: Sellised tegevused võivad kahjustada avalikku usaldust tehisintellektitehnoloogiate vastu, eriti kui tekib arusaam, et ohutust ei võeta tõsiselt.
Pikaajalised riskid: Lühiajaliste eesmärkidele keskendumine ja pikemaajaliste tehisintellekti riskide tähelepanuta jätmine võib kaasa tuua traagilised tagajärjed, kui tehnoloogia edeneb meie kontrollimehhanismidest mööda.

Soovitatavad seotud lingid:
– ÕppeAI kohta saate rohkem teavet nende ametlikul veebisaidil: OpenAI.
– Üldise tehisintellekti (AGI) ja laiema tehisintellekti maastikuga seotud probleemide ülevaate saamiseks võite külastada Future of Life Institute veebisaiti: Future of Life Institute.

The source of the article is from the blog yanoticias.es

Privacy policy
Contact