Skiltybių ekspertai ragina technologijų įmones remtis skaidrumu ir atskaitingumu

AI technologijos kelia rimtus pavojus, teigia darbuotojų grupė iš svarbių AI įmonių

Dabartinių ir buvusių darbuotojų kolektyvas iš kai kurių pirmaujančių dirbtinio intelekto (AI) įmonių pabudo pavojaus signalus dėl AI galimų pavojų visuomenei. Jie kreipėsi į technologijų įmones, prašydami įsipareigojimo didesnei skaidrumui ir kritinės kultūros plėtojimo siekiant stiprinti atskaitomybę.

Už atsakingą AI praktiką skleidžiamas prašymas, kurį patvirtino 13 pasirašiusiųjų, tarp jų asmenų iš „OpenAI“, „Anthropic“ ir Google „DeepMind“, pabrėžia būtinybę mažinti pavojus, tokius kaip nelygybės paaštrinimas, dezinformacijos platinimas ir AI sistemų autonomiškas veikimas, kuris galėtų lemti didelius gyvybės praradimus. Pasirašiusieji pažymėjo, kad nors šiuos pavojus galima sušvelninti, įmonėms tenka svarbūs finansiniai stimuli, skatinantys apriboti kontrolę.

„OpenAI“ vidinės kovos atskleidžia platesnes nuogąstavimus

Pastaruoju metu patyrusi darbuotojų pasitraukimų bangą „OpenAI“ išvydo išskyros žymaus kūrėjo Ilyos Sutskevero ir vedančio tyrėjo Jano Leike’o asmenybes. Išskyros tapo neraiškios įmonės krypties subyrėjimu, kai, anot kai kurių, pelno siekimas užgožė saugesnių technologijų diegimo poreikį.

Danielis Kokotajlo, buvęs „OpenAI“ darbuotojas, išreiškė savo niokojimą dėl įmonės abejingumo atžaloms dėl AI pavojaus. Jo pareiškimas atspindėjo bendrą susirūpinimą, kad įmonės dėmesys greitam vystymuisi prieštarauja reikalingai atsargiai esančiai pažangai, reikalingai tokiai galingai ir sudėtingai technologijai.

Nepaisant šių nuogąstavimų, openAI atstovė Liz Bourgeois pripažino kritinę būtinybę kurti tvirtas diskusijas apie AI plėtrą.

AI darbuotojai ragina suteikti apsaugą pranešėjams ir etines prielaidas

Dėl šiuo metu trūkstamos vyriausybės priežiūros AI darbuotojai jaučia, kad jie yra viena iš kelių grupių, galinčių reikalauti įmonių atskaitomybės. Konfidencialumo susitarimai ir neadekvatūs pranešėjų apsaugos mechanizmai apriboja jų galimybes pranešti apie pavojus.

Laiškelyje technologijų įmonės raginamos laikytis keturių principų, įskaitant pažadą dėl nepasiteisinančių pranešėjų, kultūros, skatinančios kritiką, kūrimą procesus, leidžiančius anonimiškai pateikti rūpesčius, ir atsisakymas susitarimų, trukdančių rizikos diskusijoms.

Šie raginimai ateina vidinėse problemose „OpenAI“ aplinkose, kurios privertė laikinai atleisti generalinį direktorių Samą Altmaną ir paaštrinti dėl rimtų problemas dėl įmonės saugos praktikų silpnos komunikacijos.

AI šviesūs veikėjai tokiems kaip Yoshua Bengio, Geoffrey Hinton ir kompiuterių mokslininkas Stuartas Russellas pareiškė palaikantys veiksmų į kvietimą, padėdami pabrėžti situacijos svarbą.

Svarbios klausimai ir atsakymai

1. Kodėl AI ekspertai ragina technologijų įmones priimti skaidrumą ir atsakomybę?
AI ekspertai ragina skaidrumą ir atsakomybę dėl AI technologijų keliamų galimų pavojų, kurie apima nelygybės paaštrinimą, dezinformacijos plitimą ir galimybę, kad AI sistemos veiktų nepriklausomai, kelia keliantys gyvybės pavojaus padarinius. Jie mano, kad be šių priemonių siekis inovatyvumo ir pelno gali nuslopinti saugumo ir etinių aspektų svarbą.

2. Kokių keturių principų AI darbuotojai prašo technologijų įmones laikytis?
Keturi principai apima:
– Pažadą nepasiteisinusiems slaptiems pranešėjams.
– Kultūrinę aplinką, skatinančią kritiką ir diskusijas.
– Mechanizmus anonimiško pranešimų pateikimui.
– Susitarimų, neleidžiančių atvirai aptarti riziką, atmetimą.

3. Kas sukėlė vidinę kovą „OpenAI“ viduje?
Vidinė kova „OpenAI“ viduje kilo dėl suprasto akcento greitam vystymuisi ir pelningumui virš saugumo ir etinių rūpesčių, dėl kurių kilo daug darbuotojų išėjimų ir platesnis įmonės krypties tyrimas.

Svarbios iššūkiai ar kontroversijos

Balansas tarp inovacijų ir saugumo: Įmonės dažnai susiduria su iššūkiais, susijusiais su greitesnių technologijų išleidimu ir griežto saugumo ir etikos standartų palaikymu.

Neaiškūs AI sistemos: AI sistemų sudėtingumas gali lemti supratimo ar skaidrumo trūkumą, kaip priimami sprendimai, kas komplikuoja priežiūrą.

Pranešėjų apsauga: Nepakankama apsauga tiems, kurie iškelia rūpesčius, gali atbaidyti asmenis nuo kalbėjimo prieš neetiškas praktikas.

Potencialus piktnaudžiavimas: AI technologija gali būti eksploatuojama žalingais tikslais, dėl ko daroma būtinė atsakomybės užtikrinimo būtinybė.

Privalumai ir trūkumai

Privalumai:
Padidintas saugumas: Skaidrumo ir atsakomybės skatinimas gali lemti saugesnių AI sistemų atsiradimą.
Etinis vystymas: Atsakingos praktikos užtikrina, kad AI technologija atitiktų visuomenės vertybes ir etiką.
Vartotojų pasitikėjimas: Skaidrumas gali didinti visuomenės pasitikėjimą AI technologijomis ir įmonėmis.

Trūkumai:
Lėtesnė inovacija: Padidėjęs patikrinimas gali sulėtinti naujų technologijų išleidimą.
Kaina: Stipri saugos priemonių įgyvendinimas gali būti resursų intensyvus įmonėms.

Jei norite gauti daugiau informacijos apie AI ir susijusias politikas, galite kreiptis į šias nuorodas:
OpenAI
Anthropic
DeepMind

Atkreipkite dėmesį, kad šios nuorodos turėtų vesti į paminėtų straipsnio organizacijų pagrindines sritis. Jos teikiamos siekiant padėti gauti daugiau informacijos apie jų principus ir AI technologijas, ir kiekviena nuoroda yra patikrinta, kad būtų užtikrinta jos galiojimo teisybė pagal paskutinį žinių atnaujinimą.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact