Buvę ir esami darbuotojai išryškina dirbtinio intelekto rizikas ir ragina didesnį įmonių priežiūrą

Industriniai Specialistai Griaudžia dėl Mokymosi Mašinų Nuodėmių

Grupė asmenų, anksčiau ir dabar dirbančių garsių dirbtinio intelekto organizacijų OpenAI, DeepMind (Google) ir Anthropic, kolektyviai išsiuntė griežtą įspėjimą dėl pavojų, susijusių su dirbtiniu intelektu. Remdamiesi žymiais rizikomis, susijusiomis su dirbtinio intelekto vystymu, jie ragina technologijų įmones daugiau investuoti stebėsenoje ir valdyme šių įrankių, rūpėdami dėl saugos ir vientisumo, ką pabrėžė „The Washington Post“.

Šie darbuotojai rekomenduoja neįtikėtinąsias naudas, kurias dirbtinis intelektas gali sukelti žmonijai, bet pripažįsta, kad egzistuoja sunkios rizikos, kaip kad besimokančios nelygybės, dezinformacijos ir potencialaus pažeidimo iš autonominių sistemų, kuris galėtų baigtis rimtomis pasekmėmis žmonijai.

Įmonės pripažįsta rizikas, bet priežiūra nepakankama

Specialistai išreiškia nepasitenkinimą pastangų neskirti šioms grėsmėms nepakankamai, nors įmonės pripažįsta jų buvimą. Jie mano, kad dirbtinio intelekto įmones skatina finansiniai interesai, kurie galėtų sustabdyti efektyvią priežiūrą, todėl įperka jas konflikte, kuriame ekonominiai ištekliai pranoko saugos ir vientisumo investicijas.

Raginimas priimti principus, užtikrinančius atsakingą dirbtinio intelekto vystymą

Darbuotojai siūlo, kad dirbtinio intelekto įmonės priimtų keturis pagrindinius principus. Pirma, jie siūlo, kad įmonė neturi uždrausti kritikos iš darbuotojų, taip pat neturi slopinti diskusijų dėl ekonominės naudos. Toliau, anoniminė pranešimų sistema, palengvinanti rizikų pranešimą vadovybei ir nešališkoms organizacijoms, turėtų būti įdiegta.

Trečiasis principas rekomenduoja stiprinti kultūrą, palankią atvirai kritikai, kuri nesuka trukdžių prekybos paslaptims ar intelektinės nuosavybės pavojingas atidengimas. Galiausiai, sąlygojama, kad įmonės neturėtų taikyti represinių priemonių prieš darbuotojus, kurie paskelbia informaciją, tam tikromis griežtomis sąlygomis, skirtomis mažinti riziką.

Remiantis šiais pasiūlymais, „OpenAI“ atstovas pranešė „CNBC“ apie jų nuolatinį bendradarbiavimą su pasaulinėmis vyriausybėmis, civilinės visuomenės organizacijomis ir įvairiomis bendruomenėmis, kad išlaikytų kritinį dialogą dirbtinio intelekto inovacijose, atskleisdama savo veiksmus rizikų anoniminiam pranešimui ir naujai institucijai, kuriai priskirta saugos komisija.

Svarbiausios Klausimai ir Atsakymai:

1. Kokios rizikos susijusios su dirbtinio intelekto vystymu?

Rizikos apima besimokančią nelygybę, dezinformacijos plitimą, galimą pažeidimą iš autonominių dirbtinio intelekto sistemų, privatumo pažeidimą ir galimas sunkias pasekmes žmonijai, kaip darbo vietų panaikinimas ar galingų dirbtinio intelekto veiksmų nenoriomos pasekmės.

2. Kodėl įmonės gali neprioritizuoti pakankamą priežiūrą?

Dirbtinio intelekto įmonės gali pirmenybę teikti finansinėms skatinimo priemonėms ir technologiniam progresui virš prižiūrėti ir tvarkyti dirbtinio intelekto įrankius. Ekonominiai pranašumai gali nuslopinti saugos investicijas ir etišką dirbtinio intelekto vystymą, vedant prie nepakankamo dėmesio priežiūrai.

3. Kokie yra keturi specialistų iš dirbtinio intelekto siūlomi principai?

Principai apima (a) neprievarta uždrausti kritiką, (b) anoniminė pranešimų sistema, skirta rizikoms, (c) kultūrą atvirai kritikai, išlaikant prekybos paslaptis, ir (d) apsaugą kaltintojams.

Pagrindinės Iššūkiai ir Kontroversijos:

Balansas tarp Inovacijos ir Saugos: Varžybos vystant pažangų dirbtinį intelektą gali lemti saugos protokolų apleidimą, keldami iššūkių užtikrinant atsakingą dirbtinio intelekto vystymą.

Etiškas Dirbtinio Intelekto Dizainas: Yra kontroversijų dėl to, kas sudaro etišką dirbtinį intelektą, kaip įgyvendinti gaires ir kas nustato atsakingo vystymo standartus, įskaitant sprendimus, susijusius su iškraipymu ir teisingumu.

Patenkinimas ir Reguliavimas: Kilo klausimas, kaip reguliuoti dirbtinį intelektą efektyviai ir kokios taisyklės ir standartai yra būtini valdyti vis didėjantį dirbtinio intelekto įtaką visuomenei.

Skaidrumas: Įmonės gali susidurti su iššūkiais, būdamos skaidrios dėl dirbtinio intelekto veiksmų, nesuteikdamos kompetencijos informacijos, konkurencinės pranašumo ar vartotojo privatumo pažeidimo.

Privalumai ir Trūkumai:

Privalumai:

– Atsakingas dirbtinio intelekto vystymas gali kurti sistemas, veikiančias visuomenės geriausiomis interesais, gerinant efektyvumą, produktyvumą ir skatinant įvairias sritis, tokias kaip sveikatos apsauga ir švietimas.
– Stiprinant priežiūrą galima sumažinti dirbtinio intelekto piktnaudžiavimo rizikas, neigiamus visuomenės poveikius ir padidinti viešojo pasitikėjimo dirbtinio intelekto technologijomis lygį.

Trūkumai:

– Didelė priežiūra gali apriboti inovacijas ir sulėtinti naudingų dirbtinio intelekto technologijų pažangą, galbūt padėdama įmones į konkurencinę nepalankią padėtį.
– Siūlomų principų įgyvendinimas gali reikalauti didelių išteklių, verslo modelių keitimo ir gali susidurti su grįžtamąja ryšių atsisakymo atmetimu iš įmonių suinteresuotųjų šalių.

Plačiau apie dirbtinį intelektą ir jo pasekmes galite sužinoti apsilankę organizacijų, kurios yra orientuotos į dirbtinio intelekto tyrimus ir politiką, svetainėse, tokiomis kaip „OpenAI“ adresu OpenAI ir „DeepMind“ adresu DeepMind. Prieš apsilankę, svarbu patikrinti, ar URL yra teisingas, kadangi neteisingi URL gali paskatinti į skirtingas, potencialiai nepatikimas šaltinius.

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact