האתגרים בשימוש של ישראל בבינה מלאכותית בזיהוי מטרות פיצוץ

השימוש בבינה מלאכותית (AI) הפך לנושא דאגה בעקבות אינטגרציה של מדינות כמו ארצות הברית וסין במבצעיהן הצבאיים. לאחרונה, חשפו דיווחים שישראל משתמשת בטכנולוגיית AI כדי לזהות מטרות לפיצוצים בעזה, אשר מעידים על חששות עמוקים לגבי בטיחותם של אזרחים ועל הגבלת האחריות.

לפי מגזין +972 הממוקם בתל אביב ובמקומי קול, ישראל ניצלה תוכנת AI בשם "לוונדר" כדי לייצר מטרות התנקשות, במיוחד פלסטינים שחשודים בהיותם פלשים. הדו"ח מעיד על כך כי מערכת AI זו שיחקה תפקיד משמעותי במבצע הפיצוצים שאירע נגד פלסטינים.

מזכיר האומות המאוחדות אנטוניו גוטרש הביע את דאגתו לגבי השימוש בAI בדרך זו. הוא טען כי החלטות שמעיפות את כל המשפחה לחייה ולמוות לא יש לסמוך על אלגוריתמים. גוטרש הדגיש כי יש להפוך את AI לכוח טוב המועיל לעולם ולא לתרום לקידום הלחימה ולהפחית את האחריות.

המאמר של יובל אברהם במגזין +972 ציין כי קציני אינטליגנציה ישראלים נתנו מגע ראשון עם השימוש בAI לייצור מטרות לתנקשות. הם חשפו כי השפעה של מערכת AI לוונדר הייתה כה משמעותית עד כדי שפלטי המערכת נתונים טופלו כמו החלטות אנושיות. רשימות הרצח של התוכנה אושרו על ידי קצינים ורק "חותמות" כל אדם אנושי, למרות ההעתקות כי המערכת טעתה בכ-10% מהמקרים ולעיתים פעמיםים גם פגעה באנשים עם חיבורים קלים או אין חיבורים לקבוצות מחוללות לשעת בידוד.

המקורות של אברהם טענו כי אלפי פלסטינים, רבים מהם אזרחים אזרחיים, נהרגו בתקיפות מטוסי קרב ישראליים בשלבי התחלת המלחמה בגלל ההחלטות שנקבלו על ידי התוכנה. לפי הדיווח, לוונדר לקחה בחשבון כ-37,000 מחבלי חמאס לתנקשות, בעיקר חברי מדרגה נמוכה.

שימוש בAI בלחימה מציב שאלות אתיות רציניות ומאתגר את מתכוני החוק הבינלאומי. סיע הכללי של האומות המאוחדות קיבל לאחרונה החלטה לא מחייבת המיועדת לקידום הפיתוח של מערכות AI יציבות ומהימות. עם זאת, ההחלטה הזו, ששתפו באחריות יותר מ-110 מדינות כולל סין, לא עסקה בשימוש הצבאי של AI.

צה"ל מכחיש את השימוש בAI לזיהוי מטרות ומצהיר כי מערכות המידע שלהם הן רק כלים שמשתמשים בהם ניתן למשוואה תקיפת מטרות. צה"ל טוען כי נדרשים בדיקות עצמאיות על ידי מאבחנים לוודא שהמטרות המזוהות עונות על ההגדרות הרלוונטיות לפי החוק הבינלאומי ולפי ההנחיות הישראליות.

בעוד שהפרטים של מקרה זה עדיין מועמדים, השיח הרחב יותר שסובב את שימוש הצבא בAI מחייב שקידוש קשוב. חשוב לשקול את היתרונות הפוטנציאליים של AI בשיפור יכולות צבאיות לעומת הסיכונים שהיא מציבה לבטיחות האזרחים, לאחריות ולהיד סמיכות בחוקים ובתקנות בינלאומיים.

שאלות נפוצות:

ש: מהו תוכנת לוונדר?
ת: תוכנת לוונדר היא מערכת בינה מלאכותית המזוהה בשימוש אוט ע"י ישראל לצורך זיהוי מטרות לפיצוצים בעזה.

ש: מהם הדאגות לגבי שימוש ישראל בAI בזיהוי פיצוצים?
ת: הדאגות מסתובבות סביב בטיחות האזרחים וההמצאה של אחריות בהחלטות חיווניות לחיים ולמוות. קיימת חשש מהשפעות טעויות שעושות צוותי AI והשפעתן על אנשים אקראיים.

ש: כמה פלסטינים נהרגו במבצע הפיצוצים?
ת: לפי משרד הבריאות השולי של חמאס, נהרגו מעל 32,000 פלסטינים מרץ מהתקפות הנקמה של ישראל, בעקבות התקיפות שהתרחשו ב-7 באוקטובר על ידי חמאס.

ש: מה אמרה האומות המאוחדות לגבי הנושא?
ת: ראש אום אונטוניו גוטרש הביע דאגה עמוקה לגבי שימוש בAI בפיצוצים. הוא הדגיש את צורך בשליטה חומרית ובהחלטות המשפיעות על חיי אדם והבקשה לשימוש אחראי של AI בלחימה.

ש: מה אמר צה"ל על השימוש בAI?
ת: צה"ל מכחיש את השימוש בAI בזיהוי מטרות ומטען שמערכות המידע שלהם הן רק כלים שמשתמשים בהם המאבחנים בניתן לוודא שהמטרות המזוהות מפגים בהגדרות הרלוונטיות לפי החוק הבינלאומי ולפי ההנחיות של צה"ל.

מקורות:
+972 Magazine and Local Call
הכנסת כללית של האומות המאוחדות

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact