Hiljutine aruanne avaldas, et OpenAI on kiirendanud uute AI mudelite arendamist, samal ajal jätmata tähelepanuta ohutusprotokolle ja turvameetmeid. Murete tõstatasid avaldamata töötajad, kes allkirjastasid avaliku kirja, milles väljendasid muret puuduliku järelevalve pärast AI süsteemi ehitamisel. Sellele reageerides asutas OpenAI uue ohutus- ja turvakomitee, millesse kuuluvad nõukogu liikmed ja valitud juhid, et hinnata ja tugevdada ohutusprotokolle.
Vaatamata väidetele ohutusprotokollide hooletuse kohta kinnitasid kolm OpenAI töötajat anonüümselt The Washington Postile, et meeskond tundis survet uue testimisprotokolli rakendamise kiirendamiseks, mille eesmärk oli “ennetada AI süsteemide põhjustatavat katastroofilist kahju”, et vastata planeeritud GPT-4 Omni mai kuus toimuvale käivitamisele OpenAI juhtkonna poolt kavandatud ajakavas.
Ohutusprotokollide eesmärk on tagada, et AI mudelid ei paku kahjulikku teavet ega aita kaasa ohtlikele tegevustele, nagu keemiliste, bioloogiliste, radioloogiliste ja tuumarelvade (CBRN) konstrueerimine või osalemine küberrünnakutes.
Lisaks tõi aruanne esile sarnase intsidendi, mis toimus enne GPT-4o käivitamist, mis kirjeldati OpenAI kõige arenenuma AI mudelina. Käivitamiseks tehti plaane, tagamata selle ohutust, mille kohta üks OpenAI töötaja aruandes tsiteeris, et “me ebaõnnestusime põhimõtteliselt selles protsessis”.
See pole esimene kord, kui OpenAI töötajad osutasid selgetele ohutus- ja turvaprotokollide eiramist ettevõttes. Eelmisel kuul allkirjastasid endised ja praegused OpenAI ja Google DeepMind töötajad avaliku kirja, väljendades muret uute AI süsteemide arendamise puuduliku järelevalve pärast, mis võivad esitada olulisi riske.
Kirjas nõuti valitsuse sekkumist, regulatiivseid mehhanisme ja tugevat kaitset tööandjate poolt vilesid puhuvatele isikutele. OpenAI kaasasutajatest kaks kolmest, Jeffrey Hinton ja Yoshua Bengio, toetasid seda avatud kirja.
Mais teatas OpenAI uue ohutus- ja turvakomitee moodustamisest, mille ülesandeks on hinnata ja parandada ettevõtte AI tegevusi ning tagada kriitiliste ohutus- ja turvaotsuste tegemine OpenAI projektide ja tegevuste jaoks. Ettevõte jagas hiljuti uusi juhiseid vastutustundlike ja eetiliste AI mudelite loomiseks, mida nimetatakse Mudeli Spetsifikatsiooniks.
Hiljutine aruanne avastas täiendavaid üksikasju seoses muredega ohutusprotokollide osas OpenAI-s, tuues välja võtmetähtsusega küsimused ja väljakutsed, mis selle ümber tiirlevad.
Küsimused:
1. Milliseid konkreetseid ohutusprotokolle jättis OpenAI tähelepanuta AI mudelite arendamisel?
2. Kuidas mõjutas uute testimisprotokollide rakendamise kiirustamise surve ohutusmeetmeid?
3. Millised potentsiaalsed ohud on seotud AI süsteemidega, mis ei oma piisavaid ohutus- ja turvaprotokolle?
4. Kuidas on töötajad ja tööstuseksperdid ettepaneku teinud ohutusalaste murede lahendamiseks OpenAI-s?
5. Millised on eelised ja puudused OpenAI lähenemises AI mudelite arendamise prioriteediks seadmiseks ohutusprotokollide asemel?
Väljakutsed ja Kontroversid:
– OpenAI töötajad tundsid survet uute AI mudelite käivitamisele eelisjärjekorras enne tugevate ohutusprotokollide tagamist, tõstatades muret katastroofiliste kahjude võimalikkuse üle.
– Ohutusprotokollide hooletus võib viia AI süsteemide pakkumiseni kahjulikku teavet või nende kaasamiseni ohtlikesse tegevustesse, nagu relvade loomise või küberrünnakute hõlbustamine.
– Järelevalve puudumine AI süsteemide ehitamisel võib tuua kaasa olulisi riske ja eetilisi dilemmasid, mis nõuavad kiiret tähelepanu ja sekkumist.
– Valitsuse reguleerimise, vilepuhujakaitse ja täiustatud ohutusmeetmete nõue peegeldab kasvavat muret kontrollimata AI-tehnoloogiate arendamise üle.
Eelised:
– AI mudelite kiirendatud arendamine võib viia läbimurdeliste edusammudeni tehnoloogias ja innovatsioonis.
– OpenAI pühendumus ohutuse ja turvapaneeli loomisel näitab proaktiivset lähenemist ohutusalastele muredele ja protokollide parandamisele.
– Viimased juhised vastutustundlike ja eetiliste AI mudelite loomiseks, mida nimetatakse Mudeli Spetsifikatsiooniks, osutavad valmisolekule prioriteediks seada ohutus- ja eetilised kaalutlused.
Puudused:
– Ohutusprotokollide eiramine AI arendamisel kujutab endast olulisi riske ühiskonnale, võimalikult juhtides k unintended consequences ja kahjulike tagajärgedeni.
– Surve täita ambitsioonikaid käivitamise ajakavasid võib ohustada ohutusmeetmeid ja takistada põhjalikke riskianalüüse.
– Piisava järelevalve ja vastutuse puudujääk AI süsteemide ehitamisel võib kahandada avalikkuse usaldust ja tekitada eetilisi küsimusi kunstliku intelligentsuse valdkonnas.
Lisateabe saamiseks AI arendamisel oluliste ohutusprotokollide ja OpenAI tavade ümber toimuvate arutelude kohta külasta OpenAI ametlikku veebisaiti aadressil OpenAI.