גידור עולי: השפעת הבינה המלאכותית על הפיצוץ של ילדים

התקדמות הטכנולוגיה של הבינה המלאכותית (AI) הביאה לפועל מגוון יתרונות והתקדמויות בתעשיות שונות. אולם, במהלך התקדמות זו, הצד האפל של AI עלה לפניו ומומחי בטיחות ילדים וחוקרים מזהירים על הסיכון הפוטנציאלי שהוא מהווה להחמיר את הניצול המקוון.
לפי המרכז הלאומי האמריקני לילדים הנעדרים והניצלים (NCMEC), היו 4,700 דיווחים בשנה החולפת הקשורים לתוכן שנוצר על ידי AI ומתאריך עינויין ילדים. מספר המזעיק הוא מדאיג ומפריע לחשיבת תופעה שמתקשת ומצפה לגדול תוך כדי התקדמות הטכנולוגיה של AI.
על אף ש-NCMEC עוד לא פירסם את מספר הכולל של דיווחי תוכן נפילה ילדים שהתקבלו מכל מקורות בשנת 2023, המוסד פירסם שהוא התקבל בערך 88.3 מיליון קבצים בלבד ב-2022 בלבד. הדיווחים הללו מגיעים מחברות AI מעצמן, מפלטפורמות מקוונות ומאנשים הנתקלים תמיד בהחמצה כל כזה.
הבחינה בצורך הדחוף להתמודד עם הבעיה הזו, NCMEC מתקיימת תפקיד מרכזי כוועד הלאומי לדיווח תוכן ניצול ילדים לגוף המשטרה. ג'ון שיהאן, הנשיא הסרעף ב-NCMEC, דיבר על הניצול של ילדים שמתבצע על-ידי AI בצורה שאי אפשר להתעלם ממנה.
בזמן האחרון, ה-CEOים של פלטפורמותיהם מטא (נודנים שטנדיים של פייסבוק), X, TikTok, Snap ו-Discord נדעכו בישיבת הוועדה בסנאט המתרכזת בבטיחות ילדים במרחב המקוון. החוקקים בדקו את מאמציהם של חברות המדיה החברתית והמערכות לשליחת הגנה שאולי יאות לגורם פושעים מקוונים.
חוקרים במרכז המקוון הסטנפורדי הוציאו דוח ביוני, אשר מציין את האזהרה המטריפה של אנשי רוח להשתמש ב- AI מוליכים ליצירת תמונות חדשות שדומות במדויק לילדים אמיתיים. בעוד החומרים הניצולים של AI הללו מתקרבים יותר ויותר לצילומים תואמים, זיהוי גורמים אמיתיים מבין קורבנות מציע אתגר גדול.
על מנת להתמודד עם הבעיה הזו המתרחשת, OpenAI, הארגון שעומד מאחורי ChatGPT הפופולרי, הקים מערכת שמעבירה דיווחים ל-NCMEC. בנוסף, מתנהלות הוזמנות בין NCMEC לבין חברות ניצול שונות של AI כדי להציב אמצעים דומים.
עליית AI מביאה את החדשנות ואת האחריות. בכלי החוזרים עדיין שימורים וניטול משמר בשלשם להיום את התחשיב הלוחם זאת לשימרה נוחות של הדבק בבריאות אנשים חלשים, בעיקר ילדים.
קרא עוד: 1. מרכז לאומי לילדים הנעדרים והניצולים 2. OpenAI3. אוניברסיטת סטנפורד

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact