Nové trendy využívání umělé inteligence v pracovním prostředí

V nedávné době se využití umělé inteligence (AI) stalo běžným jevem v různých odvětvích. Pracovní prostředí není výjimkou, kdy firmy stále více spoléhají na platformy AI a software pro procesy rozhodování. Nicméně, otázky odpovědnosti a spravedlnosti těchto systémů AI vyvolaly obavy.

Jedním odvětvím, kde měla AI významný dopad, je personalistika. Manažeři nyní využívají AI nástroje k rozhodování, které byly tradičně řešeny personálními odděleními. Automatický screening životopisů je běžná aplikace AI v náborovém procesu. AI poháněné parsování životopisů třídí životopisy do kategorií jako „ano“ a „ne“ pro zjednodušení rekrutace. Obdobně se staly populární jednosměrné video pohovory, které eliminují potřebu reálné interakce. Nicméně, tyto nástroje také vyvolávají obavy o objektivitu a spravedlnost v náborovém procesu.

Tržní prognózy pro průmysl AI v lidských zdrojích ukazují pozitivní výhled. Podle zprávy od Grand View Research se očekává, že celosvětová velikost trhu AI v lidských zdrojích dosáhne 3,6 miliardy dolarů do roku 2028. Rozevírající se využití technologií AI pro získávání talentů, angažovanost zaměstnanců a řízení výkonu tvoří tento růst. Avšak, jak zdůraznila kniha Hilke Schellmannové, je třeba řešit otázky související s biasem a spravedlností, aby odvětví dosáhlo svého plného potenciálu.

Rizika spojená s AI v náboru nelze opomíjet. Došlo k případům, kdy zaměstnanecký právníci identifikovali diskriminaci podle pohlaví v AI nástrojích používaných pro screening uchazečů o práci. To vedlo k výzvám, aby firmy přestaly používat takové nástroje. Navzdory těmto zjištěním některé start-upy stále používají zkreslené systémy AI, což prohlubuje negativní dopad na současné a potenciální zaměstnance.

V knize je podrobně diskutováno o nedostatku transparentnosti a vysvětlitelnosti v AI systémech. Sami vývojáři nemusí plně rozumět tomu, jak nesupervizované AI modely činí určitá rozhodnutí. Tento nedostatek transparentnosti představuje etické concernsi.

FAQ

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact