Znanstvenici za umjetnu inteligenciju traže veću zaštitu za dojavitelje povreda i etičke principe u tehnologiji

Neki istraživači specijalizirani za umjetnu inteligenciju (AI), uključujući one povezane s tvorcem ChatGPT-a, OpenAI-jem, su javno apelirali za pravo informiranja javnosti o potencijalnim rizicima povezanim s AI tehnologijom. Istaknuli su nedostatak trenutnih zaštitnih mjera za uzbunjivače, napominjući da su te mjere obično usmjerene prema ilegalnim aktivnostima tvrtki, dok područje AI često nedostaje specifičnih pravnih propisa.

Skupina stručnjaka izjavila je da su strahovi od osvete opravdani, pozivajući se na prošle incidente takvih radnji unutar industrije. Uputili su poziv razvijateljima naprednih AI modela da prihvate četiri temeljna načela. Jedno od tih načela je suzdržavanje od zabrane zaposlenicima da iznose negativne izjave o svojim poslodavcima.

Nakon otkrića da je OpenAI prijetio bivšim zaposlenicima gubitkom opcija dionica zbog “klevetanja” tvrtke, izvršni direktor Sam Altman ispričao se i uklonio klauzulu, tvrdeći da nije bio svjestan njezina postojanja i tvrdeći da nikada nije bila primijenjena.

Osim toga, istraživači su zatražili postupak putem kojeg bi zaposlenici anonimno mogli obavijestiti uprave svojih tvrtki i regulatorna tijela o uočenim rizicima softvera za AI. Naglašeno je da bi također trebali imati slobodu da javno progovore ako interni kanali nisu dostupni.

Brzi razvoj AI-ja, kako su upozorili neki stručnjaci, može dovesti do autonomnog softvera koji izmiče ljudskoj kontroli, s posljedicama koje sežu od širenja dezinformacija i masovnog gubitka poslova do egzistencijalne prijetnje čovječanstvu. Stoga vladajući pokušavaju stvoriti propise za razvoj AI softvera.

OpenAI, entitet iza serije softvera GPT, smatra se pionirskim u ovom području. Predstavnik OpenAI-a izrazio je tvrtkinu vjeru u znanstveni pristup tehnološkom riziku. Sadašnji i bivši zaposlenici OpenAI-a i DeepMinda anonimno su se pridružili apelu za etičke standarde razvoja AI-a. Neel Nanda iz DeepMinda dodao je da nije naišao na ništa na svojim sadašnjim ili bivšim radnim mjestima što bi zahtijevalo uzbunjivanje.

Ključna pitanja i odgovori:

Koje je osnovno pitanje koje se obrađuje pozivom istraživača AI-a za zaštitu uzbunjivača?
Osnovno pitanje je percipirani nedostatak dovoljne zaštite za uzbunjivače u industriji AI-a, posebno zaštite koja omogućuje zaposlenicima da istaknu neetičke prakse ili potencijalne rizike AI tehnologije bez straha od osvete.

Zašto su etički principi u tehnologiji, posebno u AI-u, važni?
Brzi napredak tehnologije AI-a često nadmašuje regulaciju, što dovodi do potencijalnih rizika poput zloupotrebe podataka, kršenja privatnosti, pristranosti u procesima donošenja odluka i drugih društvenih utjecaja za koje su etički principi osmišljeni kako bi ih ublažili.

Kakve brige imaju zaposlenici u vezi s negativnim posljedicama uzbunjivanja?
Zaposlenici strahuju da bi mogli biti suočeni s pravnim i profesionalnim posljedicama, poput otkaza, tužbi, oštećenja reputacije ili financijskih kazni ako iznesu zabrinutosti o praksama svojih poslodavaca.

Koji su predloženi rješenja za ove probleme?
Predložena rješenja uključuju stvaranje postupaka za anonimno prijavljivanje upravama tvrtki i regulatornim tijelima, instituiranje prava da javnost bude informirana ako interni kanali zakažu i prihvaćanje temeljnih načela koja štite slobodu govora unutar tehnološke industrije.

Glavni izazovi i kontroverze:
Glavni izazov je izbalansirati zaštitu uzbunjivača s pravima i interesima poslodavaca. Tvrtke se mogu pozvati na to da takve zaštite mogu dovesti do otkrivanja poslovnih tajni ili nanijeti nepravednu štetu zbog neutemeljenih optužbi. Kontroverza također nastaje prilikom rasprave o potencijalnoj cenzuri unutar industrije, odražavajući napetost između korporativnih interesa i javne sigurnosti.

Prednosti i nedostaci:

Prednosti:
– Zaštita uzbunjivača može dovesti do etičkijih praksi u razvoju AI-a.
– Javna sigurnost može se unaprijediti omogućavanjem istaknuća i rješavanja potencijalnih rizika.
– Ustvrđivanje etičkih načela potiče kulturu odgovornosti i transparentnosti.

Nedostaci:
– Jaka zaštita uzbunjivača može rezultirati otkrivanjem koje bi nepravedno moglo oštetiti reputaciju tvrtke ili otkriti poslovne tajne.
– Tvrtke se mogu suočiti s povećanim sudskim postupcima i regulatornim nadzorom.
– Kultura otvorenosti može odvratiti neke stručnjake iz industrije od preuzimanja rizika, što potencijalno može ugušiti inovaciju.

Za daljnje istraživanje krajolika umjetne inteligencije i etike, evo nekoliko predloženih relevantnih stranica:
OpenAI
DeepMind

Ovi linkovi vode na glavne domene OpenAI-a i DeepMinda, dviju istaknutih organizacija za istraživanje AI-a spomenutih u članku.

Privacy policy
Contact