השפעת המודעות המלאכותית על העבודה: גילו שליטות מוסתרים

בעידן ההתקדמות הטכנולוגית המהירה, המודעות המלאכותית (AI) נכנסת לתחומים שונים של חיינו, כולל בעבודה. העימות אוכלוסייתי מתוך המודעות האלו כביש שאלות קריטיות על אחריות והוגנות בתהליכי קבלת ההחלטות שלה. העיתונאית התעוררת, הילקה שלמן, מסלסלת את הנושא הזה בספרה המרתק "האלגוריתם: איך AI מחליטת מי מתקשרת, מגיע לקידום ומי מוטלת [ולמה עלינו להתנגד כעת]".

כששלמן מבדה את השפעת המודעות המלאכותית על מתקני קבלת ההחלטות, היא מובילה את מנהלי המיון להתיחס לכליה הממוכנים ברציפות. חברות, גדולות וקטנות כאחת, משתמשות כיום ב- AI כדי לקבל החלטות שנהלו לפני כן על ידי מחלקות משאבי אנוש. למרבה ההפחדה, קיימת חשש גובר כי הכלים האלו עשויים בטת בשוגג לחילוץ פרקטיקות משפיעות שעשויות לפגוע בעובדים נוכחיים ופוטנציאליים.

סינון קורות החיים הוא יישום נפוץ של AI בתהליך ההעסקה. כאשר מועמדים מעלים קורות חיים על פלטפורמות עסקים או שולחים אותן ישירות לאתרים של מעסיקים, נתקלות מחלית קורות החיים בפערים של סוגים שנמצאים בתוך קבוצות שנקבעו מראש:"כן" ו"לא". באופן דומה, ראיונות וידאו חד כיווניים הרווים שפופלוריות, שם המועמדים מקבלים שאלות מוקלטות לענות עליהם בלעדי כל מגע לזמן אמת. יש חברות אף הופנו אל הערכות שדומות למשחקי מחשב כדי להעריך את יכולותיהם ואת אישיותם של המועמדים. עם כל הכלים המטרה לחסוך בזמם ולזרוק את התהליך של ההשכרה, יש להם גם להאריך את השאלה על עצמו והצדק.

הגידול הגאומטרי בבקשות לעבודה הועיד חברות לחפש פתרונות טכנולוגיים לניהול הדלקים. מקובל העם על AI אבל אינו קם ללא סיכונים. אירעו מקרים בהם יועץ דין עבודה מזהים הפרדה על פי מין בכלים אלו, ממליצים לחברות לבטל את שימושן בהם. למרבה הצער, חלק מהסטארט-אפים נמשכיםלפעול למרות תוצאת אלו, מממים על ישפיעה מזיקה של מערכות AI שנטייה.

ניסיון מקיף במיוחד שביצעה שלפמן אישר כלי טענת את האישיות והמיוניות לפי דוגמאות קול. היא פערה שאלות על האם כלי זה משפיעותבצורה הוגנת כאשר אישים עם כשלויות דיבור או מבטאים. כדי לבחון את הוגנות הכלי, דיברה בריצ' עליו בגרמנית ורכסה עוברת על מסעיף כלי המדד "Wikipedia". להפתעתה, כלי הפרט הוגנות תרומה להפקת התנאי שיעור ההשתכם במשימת עבודה ועל כן לא הבין את השפת המדוברת. התעוררות זו מציינת את הסיכונים המשווקים עם האמון ב- AI להחלטות במשימות גבוהות, כולל קבלת עבודה.

על מנת להבטיח שימוש אחראי ואתי בAI במשאבי אנוש, שפיניה דגישה חשיבותה לשקיפות ולהסבר. למפתחים יש להיות אחראים ומחויבים לספק הסבר ברור לתוצאות המערכות אליהם של AI. למרבה המזל, ברוב המקרים, לאו פיתוחים בעלי בלתי מובנים גם במפרטים כיצד מודלי AI שאינם משובחים קורעים את ההחלטות המסויימות. לחוסר שקיפות והסבר ברוב אתי, בעל מוקד מובנים פסיקים מובינים.

כאשר אנו חוצים נוף חדיש של AI במקום העבודה, חשוב לשאול, לבחון ולדרוש חשבונאיות להחלטות שנעשו על ידי מערכות AI. רק דרך הבנה מעמיקה בתהליך וביישום מוחשב של AI אנו יכולים להונא את מול נטישות הפוטנציאל הנמתח פצץ ולהבטיח אוכלוסיית עבודה הוגנת וכוללת.

שאלות נפוצות

מהו AI?

ה- AI או המודעות המלאכותית מתייחסת לדמותה של המודעות במכונות שמתוות לחשוב וללמוד. כולל פיתוח מערכת מחשבים שיכולה לבצע משימות שדרוש לדרוש מערכות המערבות.

איך משתמשים בכלי AI במקום העבודה?

AI משמשים בדרכים שונות במקום העבודה, כולל תהליך ההשכרה, מעקב אחר העובדים, החלטות בנות קידום, ואף בקביעת מי נפוגע. אלגוריתמי ה- AI ניתקנים נתונים ועשוי תחוזיות או החלטות שעושיים לפי דפופ אמדה מארגונים שנקבעו.

מהם הסיכונים הקשורים ל- AI שלא ניתן למשר?

הסיכונים הקשורים ב- AI שלא ניתן למשר כוללים פוטנציאל על החלטה עם נטיות, חוסר שקיפות בתהליך לקיבוע החלטות, והתמשוכת פרקטיקות מפלילות. הסמכה על מערכות AI בהתבררות מקירה יכולה להביא לטיפול איום של מועמדים בסיסיים שאינם קשורים לסמיכותם.

כיצד ניתן לוודא שימוש אחראי ב- AI במשאבי אנוש?

לוודא שימוש אחראי ב- AI במשאבי האנוש היא חשוב לקבל תמיכה והסבר לפי פיתוחים וחברות המשתמשת במערכות AI. הציות לתהליך הקביעת החלטות והחזקת פותחים כר המדיש הערכים יכול לעזור להפתחת הפוטנציאל ולחילוץ בעיות ולייצור פתרונות אתייפיים.

The source of the article is from the blog macholevante.com

Privacy policy
Contact