Etiškas dirbtinio intelekto naudojimas: užtikrinti atsakingą vartojimą esant geresnei ateiciai

Dirbtinis intelektas (DI) per pastaruosius metus tapo susirūpinimo objektu: daugelis bijo, kad jis gali pakeisti darbus, plisti dezinformacija ir netgi kelti grėsmę žmonių egzistencijai. Nepaisant šių nerimo priežasčių KPMG ataskaita, paskelbta 2023 metais, atskleidė, kad tik du iš penkių žmonių mano, jog dabartinės reguliavimo priemonės užtikrina saugų dirbtinio intelekto naudojimą. Atsižvelgiant į šias problemas, etinio priežiūros vaidmuo dirbtinio intelekto plėtojime tampa vis svarbesnis.

Vienas iš lyderių, kuris deda pastangas šiame procese, yra Paula Goldman, etinio ir žmogiškojo naudojimo pareigūnas Salesforce įmonėje. Jos darbas apima užtikrinti, kad įmonės sukurtas technologijos būtų naudingas visiems. Tai apima glaudų bendradarbiavimą su inžinieriais ir produktų vadovais, siekiant nustatyti galimus pavojus ir kurti apsaugos priemones. Tai taip pat apima bendradarbiavimą su politikos grupėmis, siekiant nustatyti gaires priimtinam dirbtinio intelekto naudojimui, taip pat skatinti produkto prieinamumą ir įtraukų dizainą.

Klausiant apie etinį ir žmogiškąjį naudojimą, Goldman pabrėžia AI produktų atitikimo vertybėms svarbą. Pavyzdžiui, generatyvinio dirbtinio intelekto atveju tikslumas yra pagrindinis principas. Salesforce nuolat siekia pagerinti sukurtų dirbtinio intelekto modelių aktualumą ir tikslumą, įtraukdama dinaminį pagrindimą, kuris leidžia jiems naudoti teisingą ir naujausią informaciją, kad būtų išvengta neteisingų atsakymų ar „dirbtinio intelekto vaizduotės”.

Kalbant apie dirbtinio intelekto etikos temas, jis susilaukia vis didesnio dėmesio, o technologijų lyderiai, tokie kaip Samas Altmanas, Elon Muskas ir Markas Zuckerbergis, susitinka už uždarų durų su teisėgynais aptarti dirbtinio intelekto reguliavimo klausimus. Nors vis daugėja sąmoningumo dėl dirbtinio intelekto kylančių rizikų, Goldman pripažįsta būtinybę turėti daugiau balso ir plėtoti etinių aspektų priėmimą į politikos diskusijas.

Salesforce ir kitos įmonės, tokios kaip OpenAI, Google ir IBM, savanoriškai įsipareigojo laikytis dirbtinio intelekto saugos standartų. Goldman pabrėžia bendradarbiavimo pastangas pramonėje, tokius kaip seminarų organizavimas ir veikimas etikos dirbtinio intelekto konsultacinėse tarybose. Tačiau ji taip pat pripažįsta skirtumus tarp verslo ir vartotojų sričių, pabrėždama būtinybę nustatyti standartus ir gaires konkrečiam kontekstui.

Dirbti dirbtinio intelekto srityje yra vienu metu ir įkvepiantis, ir iššūkį keliantis darbas. Šioje srityje lyderiai bendradarbiauja, siekdami plėtoti patikimus ir atsakingus dirbtinio intelekto produktus, kurie formuos ateitį. Tačiau sparčiai besivystančios pažangos tempas reiškia, kad nuolatiniai mokymasis ir prisitaikymas yra būtini.

Apibendrinant, etiškas dirbtinio intelekto naudojimas yra svarbi sąlyga sėkmingam jo įtraukimui į visuomenę. Paula Goldman ir bendri projektai parodo, kaip atsakingas dirbtinio intelekto vystymas gali sukurti geresnę ateitį.

FAQ skyrius:

K: Kokios yra kai kurios dirbtinio intelekto problemos?
A: Problemos apima darbų atsisavinimo potencialą, dezinformacijos plitimą ir grėsmes žmonių egzistencijai.

K: Ar žmonės mano, kad dabartinės reguliavimo priemonės užtikrina saugų dirbtinio intelekto naudojimą?
A: Pagal 2023 metų KPMG ataskaitą, tik du iš penkių žmonių mano, kad dabartinės reguliavimo priemonės yra pakankamos.

K: Kas yra Paula Goldman ir koks jos vaidmuo?
A: Paula Goldman yra etinio ir žmogiškojo naudojimo pareigūnė Salesforce įmonėje. Jos vaidmuo apima užtikrinti, kad įmonės sukurta technologija būtų naudinga ir dirbti glaudžiai su inžinieriais bei produktų vadovais, siekiant nustatyti galimus pavojus ir kurti apsaugos priemones.

K: Kokia yra AI produktų atitikimo vertybėms svarba?
A: AI produktų atitikimas vertybėms padeda užtikrinti etišką ir žmogiškąjį naudojimą. Pavyzdžiui, generatyvios dirbtinio intelekto srityje tikslumas yra pagrindinis principas.

K: Kurios įmonės įsipareigojo laikytis dirbtinio intelekto saugos standartų?
A: Salesforce, OpenAI, Google ir IBM yra vienos iš įmonių, kurios savanoriškai įsipareigojo laikytis dirbtinio intelekto saugos standartų.

Pagrindiniai terminai / žargonas:

AI: dirbtinis intelektas, tai yra žmogaus intelekto imitavimas mašinose, kurios programuotos mąstyti ir mokytis kaip žmonės.

Generatyvinis AI: AI modeliai, kurie gali generuoti naują turinį, tokį kaip tekstą, vaizdus ar video.

AI etikos ir žmogiškojo naudojimo pareigūnas: vaidmuo, užtikrinantis etišką ir atsakingą AI naudojimą įmonėje.

AI vaizduotės: tai yra neteisingi dirbtinio intelekto modelių sugeneruoti atsakymai dėl neteisingos ar pasenusios informacijos.

Politikos grupė: komanda įmonėje, atsakinga už gairių ir politikos, susijusios su dirbtinio intelekto naudojimu, plėtojimą ir įgyvendinimą.

Etinių AI konsultacinės tarybos: paneliai arba tarybos, sudarytos iš ekspertų dirbtinio intelekto etikos srityje, kurios teikia įmonėms patarimus dėl etiško dirbtinio intelekto naudojimo.

Siūlomi susiję nuorodų šaltiniai:
1. KPMG
2. Salesforce
3. OpenAI
4. Google
5. IBM

The source of the article is from the blog papodemusica.com

Privacy policy
Contact