תוכנה לניתוח רשתות חברתיות מונעת חקירות של המשטרה בתיקי התעלות מינית של ילדים

חקירה אחרונה של The Guardian חשפה כי חברות רשתות חברתיות שמתבססות על תוכנת בינה מלאכותית (AI) להנפקת מדווחים על מקרים של התעללות מינית של ילדים יוצרות מדווחים שאינם כספקיים על מקרי התעללות מינית שנחשפו, מונעות חקירות של משטרת ארה"ב ומאשרות זמן בזיקות של פוטנציאליים. חברות אלו נדרשות על ידי החוק לדווח על כל חומר של התעללות מינית שנתקלו בו בפלטפורמות שלהן למרכז הלאומי למעמדים חסרי משמעות ונעדרים, שמעביר אזהרות אל המוסדות המיוחדים במשטרה.

בשנת 2022, התקבלו יותר מ-32 מיליון דיווחים על חשד להתעללות מינית בילדים, עם Meta כגוברת, אחראית על מעל 27 מיליון דיווחים. מכל נתון המדווחים באמצעות AI מייצר קושי משמעותי למשטרה. לגיטימות פרטי הפרטה על פי התיקון הרביעי, אילו אינחרך ולא הם ולמעמדים אחרים אין רשות לפתוח דיווחים ללא הוראת חיפוש אלא אם חוות דעת אנושית בחברות הרשת התייצבה על התוכן. העולם המשפטי הבא בכך נתן תוצאה של דחיות מספר שבועות, שמאפשרת לראיה אפשרית לאבד ולמדודים להישאר בלתי זוהים לתקופות ארוכות יותר.

מומחי בטיחות ילדים ועורכים דין ביעצו דאגה על השלכות המניעה על בטיחות הקהילה. החקירות נתקלות, ולא ניתן דמיון מיידי לתפוס אמצעי להגנת קרחל מהתיקוחים האפשריים. במקרים מסוימים, החברות של עולם רשת הפסיקו כרשימת המשתמש לאחר שכידם דיווח, מובל להסרת מדוני מרכזיים משרתיהן.

טיפים שנוצרו על ידי AI אינם נפקדים מכיוון שנמצא חסר במידע ספציפי הנחוץ לקבלת נוסחת הזדמנות רצויה בליווי חיפוש. זה מעמיד משאב נוסף על משטרות הממורקות שחסרות את המשאבים הנדרשים כדי לתת עדיף לטיפים אלו.

ההתייחסות לAI למיושת תוכן נכפתה על ידי מומחים כפיתרון לא מספק. בעוד שAI יכולה לעזור להקל על מעומדותם של כוחות האכיות לעבוד, אינה יכולה להחליף את הצורך בהתערבות אנושית. כפי שצוין על ידי תובע שבמסצ'וסטס, AI לא תמיד יכול לזהות חומר חדש של התעללות בילדים ויכול לנתח רק נקודות נתונים קיימים. חשיבות הביקורת האנושית אינה יכולה להיות נעלמת כאשר נדבר על התמצית הזו.

המצב הנוכחי גרם לחששות על אפקטיביות המניעה AI והצורך במערכות יותר גדולות ותמיכה לצוותי כוחות האכיפה במאבקם המוצץ של התעללות מינית בילדים ברשתות.

The source of the article is from the blog enp.gr

Privacy policy
Contact