Insider Group Rengia geresnių apsaugos priemonių AI plėtrai at OpenAI

OpenAI insajderi: grėsmė dėl įmonės kultūros ir etikos AI kūrimo požiūriu
Grupė priklausomių žmonių iš „OpenAI“, pirmaujančios dirbtinio intelekto įmonės, įsikūrusios San Franciskoje, jaučia neramumą dėl kompanijos, teigiama, neprotingos ir slaptos kultūros. Ši insajderių grupė, sudaryta tiek dabartinių, tiek buvusių darbuotojų, neseniai suvienijo jėgas dėl bendro nerimo, kad kompanija netaiko pakankamų priemonių, kad jų AI sistemos taptų pavojingos.

Rūpesčiai susiję su Dirbtinio Bendrojo Intelekto (AGI) plėtra, kuri reiškia technologiją, gebančią potencialiai atlikti bet kokį intelektualų uždavinį, kokią gali žmogus. Tačiau, dėl šios paieškos eskalacijos, insajderiai teigia, kad „OpenAI“, iš pradžių buvusi ne pelno siekianti tyrimų įstaiga, kuri atkreipė dėmesį 2022 metais išleidžiant „ChatGPT“, dabar atrodo daugiau orientuojasi į korporatyvinį augimą ir pelną, nei saugumą.

Grupė davė signalą, įspėdama, kad įmonė naudoja autoritarines taktikas slopinti darbuotojų rūpesčių išreiškimus. Šie insajderiai pabrėžia „OpenAI“ įsipareigojimą vadovauti AGI plėtros keliui, dažnai rodantis greitį nekreipiant tinkamo dėmesio į galimus rizikas.

Vienas čia patirtų kaltinimų pavyzdys gaunamas iš Daniel Cocotajiro, buvusio tyrėjo „OpenAI“ valdymo skyriuje ir pirminio figūros klastotojų grupės nario. Jis išreiškė daugelio jausmus dėl įmonės agresyvios pastangos link AGI.

Siekdami spręsti šias rimtas problemas, insajderių grupė birželio 4 d. išplatino atvirą laišką, ragindama didinti skaidrumą ir pagerinti klastotojų apsaugą stambiausiose AI įmonėse, įskaitant „OpenAI“. Jie mano, kad šie pokyčiai yra būtini atsakingam AI sistemų plėtros procesui, kurios nedarytų neplanuotų grėsmų visuomenei.

Turint omenyje įmonių grupės susirūpinimą dėl „OpenAI“ kultūros ir požiūrio į AI plėtrą, svarbu pridėti ir kitų aktualių faktų, kad įsisavinti visas problemas ir jų poveikį:

Technologinis Plėtrimas ir Saugumo Priemonės: Greitas AI plėtros tempas kelia svarbių klausimų dėl saugumo ir reguliavimo. Lauko kūrėjai ir tyrėjai dažnai įstringa tarp besivystančios technologijos ir užtikrinimo, kad šie pažangumai nevestų prie nepasitenkinimo neigiamomis pasekmėmis. Žinoma, kad daugelis AI ekspertų skatina aktyvias ir tvirtas saugumo priemones, reguliuoti AI plėtrą, ypač jei tai susiję su AGI, kuris gali turėti toli siekiančių pasekmių visuomenei ir ekonomikai.

Skaidrumas ir Atvirumas: „OpenAI“ pradėjo kaip ne pelno siekianti organizacija, siekdama skatinti ir plėtoti draugišką AI tokiu būdu, kad visiems žmonėms tai pasinaudotų. Laikui bėgant, ypač po jos posūkio į „ribotą pelno“ modelį, kilo klausimų apie jos įsipareigojimą skaidrumui ir plačiai dalintis tyrimais, kurie atspindi insajderių grupės susirūpinimą. Skaidrumo ir atvirumo koncepcijos svarbios AI etikos debatų kontekste, kad didesnis skaidrumas galėtų vesti į didesnę atskaitingumą, platesnį supratimą apie AI sistemų galimybes ir apribojimus, ir galėtų padėti užtikrinti, kad šios sistemos būtų naudojamos visuomenei naudingais tikslais.

Etiškepės Apsvarstymai: AGI plėtra taip pat sukelia ginčų dėl didelių etinių pasekmių, tokių kaip potencialus poveikis darbo vietoms, privatumui, ir skaitmeniniam atotrūkiui. Be to, klausimas, kaip įkoduoti moralines vertybes ir sprendimo priėmimo įgūdžius AGI sistemose, yra svarbi iššūkis.

AI Valdymas: Insajderių grupės kvietimas klastotojams apsaugoti rodo didesnį problemą dėl valdymo AI plėtra. Kai AI tampa sudėtingesnė, reikalingos tinkamos valdymo struktūros, įskaitant taisykles ir priežiūros institucijas, tampa vis svarbesnės. Šie protokolai gali vadovauti AI plėtrai taip, kad būtų išlaikomas inovacijų balansas su visuomenės gerove.

Greitos AI plėtros Privalumai:
– Skatina technologinius inovacijas ir gali vesti prie reikšmingų pažangų įvairiose srityse, įskaitant sveikatos priežiūrą, transportą ir švietimą.
– Galėtų potencialiai skatinti ekonominį augimą, sukurdama naujas rinkas ir pramonės šakas.
– Siūlo galimybę išspręsti sudėtingas pasaulio problemas, tokią kaip klimato kaita ir ligos, per pažangesnius analitikos ir prognozavimo įrankius.

Netikrintos AI plėtros trūkumai:
– Rizika pabloginti esamas socialines nelygybes, ypač jei AI nauda nenuosekliai paskirstoma.
– Galimybė etiškai naudoti ar piktnaudžiauti AI technologijomis, tokiomis kaip masinis stebėjimas ar autonominių ginklų.
– Galimybė nepageidaujamoms pasekmėms, tokioms kaip iškraipymai AI sistemose, kelia ne teisingą diskriminaciją ar klaidas.

Pagrindiniai klausimai ir atsakymai:
1. Kodėl „OpenAI“ insajderiai kelio nerimą? Insajderiai kelia nerimą, nes manoma, kad įmonės greitas siekimas pelnyti gali atitverti saugumo ir etinių svarstymų atžvilgiu.

2. Kas yra AGI ir kodėl tai svarbu? Dirbtinis Bendrojo Intelekto atsiliepia į AI sistemą, galinčią atlikti bet kokį intelektualų uždavinį, kokią žmogus gali atlikti. Tai svarbu dėl potencialo revoliucionizuoti įvairias žmogaus gyvenimo sritis ir pasaulinę ekonomiką.

3. Kokie gali būti potencialūs padariniai, jei AI plėtra vystosi neužkontroliuotai? Neužvalkiota AI plėtra gali paskatinti netikėtus neigiamus padarinius visuomenei, tokie kaip darbinio užimtumo mažinimas, privatumo pažeidimai, saugumo rizika, ir visuomeninės nelygybės didinimas.

Norintiems sužinoti daugiau apie AI ir AGI, daugiau galima rasti „OpenAI“ svetainėje.

[embedded content]

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact