סיסמת כותרת חדשה

בתחום הטכנולוגיה הצבאית המתקדמת במהירות, נושא שממשיך לקבל תשומת לב ופולמוס הוא השימוש בבינה מלאכותית (AI) במהלך כוחות צבאיים, במיוחד במשימות של צבא ההגנה לישראל. דוח חדש מטעין כי צה"ל השתמש במערכת AI בשם לבנדר כדי לאוטומצית את תהליך בחירת היעדים לתקיפות אוויריות בעזה. בהתאם למקורות שונים, המערכת עזרה בהפקת רשימות הכוללות עשרות אלפים מתוך האוכלוסיות האנושיות, כולל מחבלים חשודים.

למרות הכחשת צה"ל בשימוש במערכת AI לזיהוי מחבלים, כתבות מחקר ממספר גורמים כולל כתב 972 והגארדיאן מציינות דמיון כללי. הדיווחים מראים כי לא רק לבנדר נעשה שימוש אלא גם במערכות אחרות כמו חבסורה ואיפה אבא? המערכות הללו מאופיינות כשמאופטות לייצור ולמעקב אחר יעדים.

השימוש הנגזר מערכות AI לקביעת יעדים מסמנ שינוי לניהול מלחמה מופעל במהירות גבוהה, מעלה דאגות משמעותיות לגבי דיוק והגנת האזרחים. לפי קצין מודיעין נזכר בדוחות, הרבה החלטות התקבלו עם פיקוח אנושי מינימלי, מורידות את תפקידם של נפתחי המידע האנושי לשניות לאיש. בפועל זה מאבק אישות "חותמי גומי" לאישור.

תוך כדי שכוחות צבאים ברחבי העולם, כולל ארה"ב וסין, מאיצים אינטגרציה של AI בשונות צבאיות, הדיון שמסביב להשלכות האתיות, המוסריות והמשפטיות ממשיך להתעצם. צה"ל טוען כי הנהלתם עומדת בחוק הבינלאומי, הדורש אישור עצמאי של ניתחים. עם זאת, הדיווחים טוענים כי קריטריוני היעד הורחבו, מזמינים שגיאות ופגיעה פוטנציאלית באזרחי.

בזמן שמאמצים בינלאומיים, כפי בהחלטת קבעות הקבועות וההצהרה המובילה של ארה"ב על השימוש אחראי של AI צבאי, הקשיים בהגעה להסכמה גלובלית וביישום של בתים משפטיים קונקרטיים עדיין קיימים. להקטנת ההסתמכות על AI על ידי כוחות צבאיים מדגישה את צורך הקריטי לבחינה מפורטת של תוחלת המימדים האתיים של טכנולוגיה זו במלחמה.

לסיכום, האשמות נגד ביצועי יעד לפי AI על ידי צה"ל גרמו לפרק דיון חשוב, שמבלה את האתגרים המוסריים והמשפטיים בהשלכת טכנולוגיות מתקדמות לאסטרטגיה צבאית. ועידת החשבון היא נושה כחוקים בינלאומיים ושמירה על מדת נהג בינלאומית נותרות עיקריות בדיון הקשור לAI צבאי.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact