השקפה חדשה על השימוש בבינה מלאכותית במערכת המשפט

השימוש בבינה מלאכותית (AI) הפך לנפוץ יותר במערכת המשפט האמריקאית, בעוד שהשפעתה לעיתים קרות באופן שאינו נראה. משטרה ותובעים מסתמכים על כלים של AI כדי לעזור בחקירות פליליות, אך אלה כלים עטופים בסודיות, משאירים נאשמים בלי אפשרות להערער על שימושם או להבין את ההשפעה שלהם על המערכת שלהם.

רבקה וקסלר, פרופסורית במשפטים באוניברסיטת קליפורניה, ברקלי, מדגימה את העדר השקיפות לגבי שימוש בAI במערכת המשפט. אין דרישה מתובעים להודיע לשופטים או ליועצים בהגנה על השימוש בAI, יוצרת פער מידע חשוב.

כלים של AI ולמידת מכונות משמשים למטרות שונות במערכת משפט פלילית, כולל זיהוי פנים, נשק ולוחיות רישוי, שיפור ניתוח דנ"א וחיזוי פשע. אף על פי כן, חוקי סודות מסחר מונעים בדיקה ציבורית של כלים אלה, מייצרים "אפקט קופסה שחורה". אין הנחיות ברורות איך צריך להשתמש בAI ומתי צריך לחשוף את שימושו.

מתווכי מיוחד הוא הדאגה שואה בכלים של AI, בעיקר בטכנולוגיית זיהוי פנים. חקירות הדברים כי כלים אלה מזהים בשגיאה אנשים של צבע עור שונה מרקעם הלבן. זהות עניין רב יותר בכלליות ובדיוק במערכת המשפט הפלילית.

כדי לטפל באתגרים אלו, נציב מארק טקנו (D-קליפורניה) הציע חקיקה המטרתה לבדוק ולהעמיד לבדיקה בשימוש במערכת המשפט הפלילית. החקיקה מטרתה לטפל בסוגיות שמתוארות כ"אפקט קופסה שחורה" שמיווצר בעקבות חסינות גבוהה ונדפסת.

העדר השקיפות בטכנולוגיות AI מעלה שאלות חמורות על יכולתם של נאשמים להיות אדוקים בפרוצדורתי זכויותיהן בנידון הוגן. כאשר עדים עיקריים וראיות מוגנות כסודיות מסחרית, העקרונותיהם היסודיים של הצדק על הסיכן.

המונח "בינה מלאכותית" מתייחס למכונות שלומדות מניסיון ומחקיקה את הבינה האנושית. להבדיל מטכנולוגיות פורנזיות אחרות, AI נמצאת תחת תגובה לסביבתה ולמשתמשים שלה, מה שאומר שתוצאותיה עשויות לשתנות. אך ללא בדיקה והצפנה, יכולת לשגשג עולה באופן משמעותי.

ההסתמכות הנוכחית על הבטחות של חברות פרטיות כי טכנולוגיות AI שלהן הן חזקות ומדוייקות היא בעייתית. טכנולוגיית זיהוי פנים, למשל, יודעת להינס על מיליארדי פוסטים זמינים לציבור ברשתות חברתיות כדי לשפר דיוק. אולם, כאשר מתמודדת עם אוכלוסיות שונות מרקע האימונים שלה, הטכנולוגיה עשויה לייצר תוצאות שגויות.

מחקרים הוראו כי טכנולוגיית זיהוי פנים ב-AI סובלת משעות הבית מרובות, בפרט כאשר מדובר בתמונות של אמריקנים שחורים, בעיקר נשים שחורות. הדבר מעלה חששים לגבי תוקף ואמינות של AI בזיהוי אנשים בדיוק.

עם זאת, הדיוק של טכנולוגיות AI בדרך כלל נבחן באיכות תמונה אידיאלית, בעוד שקטעי סרט העולמי המופקים על ידי כוחות השוטרים אינם תמיד מושלמים. היכולת של AI לנתח מידע באיכות רעה היא אחת מקחי מכירה שלה, אך גם היא מעלה את הסיכון להתאמה שגויה.

כוחות השוטרים טופלים התאמות של טכנולוגיית זיהוי פנים כקווים לפעולה נוספים בחקירה ולא כראייה קונקרטית. בעוד שגישה זו נועדה למנוע מעצרים שגויים, היא מצמצת עדי חקירה. שימוש בAI לא נחשף לדריסה, לתביעה או לשופט, מונע הזדמנות שלהם לשאול שאלות על הממצאים.

יוצרי מודלים למידת מכונות פורנזייתיים טוענים כי חשיפת שיטותיהם תחשוף סודות תעשייתיים למתחרים. אך, החברות הללו בדרך כלל תומכות ברגולציה ממשלתית של AI בהגדרות משפט.

הצד האפל של השימוש בAI במערכת המשפט מתמצא בעדר השקיפות והאחריות. לעתים קרובות עליו לייצר סטנדרטים לאיך ומתי עליהם להשתמש בכלים של AI, כמו גם את חובת הגילוי של שימושם. שמירה על זכויות החוק המוקדמות והאחריות האתיות בתוך מערכת המשפט הפלילית היא קריטית.

The source of the article is from the blog toumai.es

Privacy policy
Contact