Naujas požiūris į AI naudojimą žmogiškųjų išteklių valdyme

Neseniai pasaulyje paskelbtas Valoir ataskaita atskleidė, kad žmogiškųjų išteklių vadovams kelia nerimą dirbtinio intelekto diegimas jų departamentuose. Nors AI skatinamas automatizavimas atneša begales galimybių, žmogiškųjų išteklių skyriai atrodo atsilieka dėl trūkstamo ekspertizės ir galimų rizikų, susijusių su AI diegimu.

Viena iš svarbiausių apklausos išvadų, kurioje dalyvavo virš 150 HR vadovų, buvo žymus žmogiškųjų išteklių potencialas tapti produktyvesniais ir strategiškesniais naudojantis AI. Ataskaitoje teigiama, kad apytikriai 35% HR darbuotojų kasdienio darbo galėtų būti automatizuota. Atsakingas už priėmimą buvo nurodytas kaip sritis, turinti didžiausią AI panaudojimo potencialą, su beveik 1 iš 4 organizacijų jau naudojantis AI paremtu priėmimu. Kiti svarbūs potencialūs AI automatizavimo kandidatai buvo talentų ir darbo jėgos valdymas bei mokymas ir plėtra.

Tačiau, nepaisant AI naudojimo HR akivaizdžių privalumų, ataskaitoje buvo pabrėžti didžiuliai iššūkiai, su kuriais reikia susidoroti. Didžioji dauguma HR specialistų (daugiau nei trys ketvirtadaliai) eksperimentavo su generatyviu AI savo darbe, tačiau tik 16% organizacijų nustatė politiką dėl jo naudojimo. Dar didesnė rūpestis kelia etiško naudojimo politikos stoka, apie kurią pranešė dar mažiau organizacijų.

Apklausa parodė, kad HR vadovai laiko trūkstamą AI įgūdžių ir ekspertizės svarbiausia kliūtimi AI diegimui. Nesitikėtai tik 14% organizacijų įgyvendino mokymo politiką, kad jų darbuotojai įgautų efektyvius AI įgūdžius. Šios politikos yra esminės ne tik norint išnaudoti visus AI privalumus, bet ir sumažinti galimas rizikas, tokioms kaip duomenų pažeidimai, pasibaisėtinas veiksmas ir blogas elgesys.

Valoir generalinė vadovė Rebecca Wettemann pabrėžė išsamiai aiškias politikas ir gaires dėl AI naudojimo HR svarbą. Ji ragino HR vadovus pirmiausia kurti šias politikas, ne tik savo komandoms, bet taip pat ir plačiąją darbuotojų populiaciją. Kaip darbuotojų duomenų iždininkai ir įmonių politikos kūrėjai, HR vadovai atlieka kritinį vaidmenį užtikrinant atsakingą ir efektyvų AI naudojimą.

Norėdami giliau įsitraukti į ataskaitos išvadas, apsilankykite [Visą ataskaitą čia](https://valoir.com/blog-1/is-hr-ready-for-ai)

DUK

Q: Koks yra AI diegimo potencialas žmogiškųjų išteklių valdyme?
A: Ataskaita rodo, kad 35% HR darbuotojų darbo dienos yra tinkami automatizavimui, o priėmimas, talentų ir darbo jėgos valdymas bei mokymas ir plėtra nustatyti kaip pagrindinės srities, kurias galima optimaliai panaudoti naudojant AI.

Q: Kokie yra pagrindiniai iššūkiai, su kuriais susiduria AI diegimo HR srityje?
A: Trūksta AI įgūdžių ir ekspertizės, nėra politikos dėl AI naudojimo ir nėra etikos naudojimo gairių tarp pagrindinių iššūkių, su kuriais susiduria HR vadovai pradėdami naudoti AI savo departamentuose.

Q: Kodėl svarbu nustatyti AI mokymo politiką?
A: Mokymo politikos yra būtinos, norint užtikrinti, kad visi darbuotojai galėtų maksimaliai išnaudoti AI privalumus, tuo pačiu minimalizuojant potencialias rizikas, susijusias su duomenų pažeidimais, iškraipymais ir blogais elgesio formomis.

Q: Kokį vaidmenį prisiima HR vadovai naudojant AI?
A: HR vadovai raginami prisiimti iniciatyvą kurti išsamias AI naudojimo politikas ir gaires, tiek savo komandoms, tiek platesnei darbuotojų populiacijai, kadangi jie atsakingi už darbuotojų duomenis ir įmonės politikas.

Svarbiausi terminai ir apibrėžimai:

– Generatyvusis AI: AI technologija, kuri gali generuoti naują ir originalų turinį, tokią kaip tekstą ar vaizdus, remdamasi išmoktais modeliais ir pavyzdžiais.
– AI įgudžiai ir Ekspertizė: Žinios, supratimas ir gebėjimai, reikalingi efektyviam darbui su ir naudojant AI technologijas.
– Etikos naudojimo politikos: Gairės ir principai, nustatantys atsakingą ir etišką AI naudojimą, užtikrinant, kad jis būtų naudojamas teisingai ir nepuolantiai, išsaugant privatumą ar neįžvelgiant žalos.
– Duomenų pažeidimai: Atvejai, kai duomenys pasiekiami, naudojami ar manipuliuojami be tinkamos autorizacijos ar saugumo priemonių, galimai kelia neprivatumo pažeidimus ar duomenų pažeidimus.
– Iškraipymai: Iš anksto nustatytos nuostatos ar išankstiniai nusistatymai, kurie gali būti nenori ar tyčia įtraukti į AI sistemas, turintys kelių neigiamų pasekmių priimant ar atliekant sprendimus.
– Blogas elgesys: Kenksmingi ar neigiami veiksmai, požiūris ar elgesys, kurie gali pasireikšti naudojant AI, tokiu kaip internetinis priekabiavimas ar diskriminaciniai veiksmai.

Siūlomi susiję nuorodos:

– [Valoir](https://valoir.com)

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact