השפעות מצרים של בינה מלאכותית

בינה מלאכותית (AI) זכתה בפופולריות רבה בשנים האחרונות, מהפכה רבה בכל תחומי החברה. ממשטרה ובריאות ציבורית, דרך שירותים חברתיים ומערכת המשפט, AI מכירה לתוך כל חלקי חיינו. אולם, בביזרזות הסובבת את התקדמות זו, אנו חייבים גם להתמודד עם השפעות מצויפות שנובעות כאשר AI מיושמת ללא תשומת לב רבה.

בקיץ של 2016, אשה באמסטרדם קיבלה מכתב ממשרד הראשי שינה את חיי משפחתה לתמיד. המכתב חשף כי אחד מבנייה, שהיה לו היסטורית צרות עם המשטרה, נמצא כעת ברשימת ילדי פושעים אלים. לשם השוואה, המכתב חשף גם כי בן הזוג שלה כולל במאגר נפרד של בני נוער שנחשבים בסיכון להפוך לפושעים בעתיד. רשימות אלו נוצרו באמצעות ProKid, מערכת למידת מכונה שפותחה על ידי אקדמאים בשיתוף פעולה עם המשטרה ההולנדית.

ProKid עשתה שימוש במגוון רחב של נתונים, כולל כתובת של אדם צעיר, קשרים, אינטראקציות עבריות עם המשטרה (גם אם לא נתבעת או נדון), ורשומות נוכחות בבית ספר לחזות את סיכוים לשתף פעולה בפעילויות פליליות. ההנחה הבסיסית הייתה שהתערבות מוקדמת, כגון שירותים חברתיים, תמיכה פסיכולוגית, והתערבות בלמידה, עשויה למנוע משיעור זה להיכנס לחיי פלילים.

אך, המציאות הייתה רחוקה מהתוצאה הרצויה. במקום להוזיל פוטנציאל פעולת פלילית, ProKid לעתים קרובות גרמה להשפעה הפוכה. ניכרים בשל הכללה שלהם ברשימות אלו, רבים מבני הנוער הללו הרגישו נכרים וראו את ערךם פוגר לעיני הרשויות. לכן, חלקם פנו לפעילות פלילית כתגובה ישירה לתחושה שנחשבו בעבר לפלילים. אמא של נער בן 16 מאמסטרדם מתארת את המערכת כ"משוגעת" כי פגעה במיומנותו לעד.

תרחיש זה, המדמה לתרחיש של פיליפ קיי דיק בסיפורו הקצר "דווקא ולא בזמן", מדגיש בעיקר נקודה גדולה הקשורה למערכות AI: החוסר בשקיפות ואחריות. כפי שהוצג בספר המעניין של מדהומיטה מורג'יה, "תלוי בקוד", לעיתים קרובות אין הסבר רב לגבי כיצד מערכות AI מגיעות להחלטותיהן או איך ניתן לשנות את ההחלטות הללו. אף הרשויות באמסטרדם, לאחר בקשה לקבלת מידע, הודו שיש להן הבנה מוגבלת של סיבות להם ProKid בחרה במשפחות ספציפיות מעל פחות מכיווני. בפועל, אלגוריתמים אלגוריים מועצבים כ "מערכות אטומות," שפעילותן הפנימיה נשארת מוסתרת אף ליוצריהן.

"תלוי בקוד" חוקר בעיטופו את ההשפעה של AI על חברה, זורק אור על החיים שנפגעו ואף נשחתו על ידי מערכות בלתי ניתנות להבנה. מורג'יה, עורכת בינה מלאכותית ראשונה של Financial Times, מתמקדת באנשים רגילים, בעיקר אלה מהקהילות המוחקמות, שנתקלים במשקל הAI אפס. בעשרה פרקים מוכתמים, היא חוקרת כיצד מודלים למידת המכונה משפיעים על צדדי היסוד של חיינו, מהזכויות שלנו והזהות שלנו, דרך גופנו ומשרדנו.

בעוד ההתקדמויות והקושי של AI בדימוי באופן ראשי בסיליקון ואלי, מורג'יה מתרכנת להמנע ממרכז החדשנות הזה ולהביא לשטח חוויות של עם יומיומי מכל רחבי העולם המתמודדים עם ההשפעות של AI. בכך, היא מפנה את תשומת לבנו לצורך הדחיק להבנה מקיפה של ההשלכות הנרחבות של AI על החברה.

שאלות נפוצות

1. מהו בינה מלאכותית (AI)?
בינה מלאכותית, שמכינים לה AI, היא ענף ממדעי המחשב שמטרתו ליצור מכונות חכמות המסוגלות לביצוע משימות שדרושה בדרך כלל חוכמת אנוש. משימות אלו עשויים לכלול זיהוי דיבור, פתרון תקליט, קבלת החלטות, וזיהוי תבניות.

2. איך ProKid עובדת?
ProKid היא מערכת למידה מלאכותית שפותחה על ידי אקדמאים בשיתוף פעולה עם המשטרה ההולנדית. היא משתמשת במגוון של נתונים, כמו כתובת של אדם צעיר, קשרים, רשומות מעצר (ללא תביעות או הערכות), ונוכחות בבתי ספר לחזות את סיכויו של הצד בעריכה פליליות.

3. מהם ההשלכות המצויפות של AI?
למרות שAI מציעה רבות יתרונות וחדשנות, היא יכולה גם לגרום להשלכות לא צפויות. ההשלכות האלו עשויות להתגלות כתוצאה מנתונים מעויינים, חוסר שקיפות בתהליכי הקבלת ההחלטות, וחיזוק השוויונות החברתיים הקיימים. לדוגמה, כפי שהוצג בקוד תלוי, מערכות AI כמו ProKid עשויות לסימן את האנשים ולהנחית לשכפול של פעילות פלילית.

4. איך ניתן לטפל בהשפעתה השלילית של AI?
כדי לטפל בהשפעתה השלילית של AI, חשוב לתת עדיפות לשקיפות ואחריות בעיצוב וביישום של מערכות אלה. בדיקות תקופתיות, עיון ציבורי, ונקודות מבט מגוונות יכולות לעזור לזהות ולהפחית בעיות של גז שלעוד. בנוסף, לגייס דיונים אתיים ולהיטיב עם קהילות מוחקמות בתהליכי החלטה יכול לוודא השלמה יותר קונדקטינג של AI בחברה.

(מקור: The Guardian – [קישור](https://www.theguardian.com/books/2021/oct/28/code-dependent-undoes-your-liberty-identity-and-livelihood-by-madhumita-murgia-review))

[קבל את זה על YouTube](https://www.youtube.com/embed/V2b5ScHpmKo)

The source of the article is from the blog foodnext.nl

Privacy policy
Contact