جدیدترین گزارش نشاندهنده استفاده ادعایی از یک پایگاه داده توانمند برای انتخاب اهداف در قطاع غزه توسط اسرائیل روشنگری آورده است. این گزارش، منتشر شده توسط مجله +972 و Local Call، ادعا میکند که ابزار موسوم به “لیوان” توسط دادههای نظامی اسرائیل آموزش داده شده بود و با مرور دادههای پایش و سایر اطلاعات بزرگ، اهدافی برای ترور ایجاد میکرد.
به گزارش، لیوان ممکن است نقش مهمی را در مراحل اولیه تضاد اخیر بین اسرائیل و حماس بازی کرده باشد، زیرا اسرائیل بیش از ۳۷،۰۰۰ فلسطینی و خانههای آنها را به عنوان اهداف ترور شناسایی کرده بود. با این حال، نیروهای دفاعی اسرائیل (IDF) وجود یک “لیست کشتن” را رد کرده و لیوان را یک پایگاه داده برای مراجعه به منابع اطلاعاتی توصیف کردهاند.
استفاده از هوش مصنوعی در استراتژیهای هدفگیری نگرانیهایی در مورد مقیاس تخریب و تعداد زیاد جان باختگان در قطاع غزه ایجاد کرده است. درگذشته، تضادهایی بین اسرائیل و حماس شامل یک فرآیند بیشتر براساس اطلاعات و دادههای دیگری بود. با این حال، ورود لیوان در طیهای از خشم و صدمههای اسرائیل پس از یک حمله تروریستی توسط حماس ممکن است به یک برنامه سریع و گسترده انتقامی منجر شده باشد.
شهادتنامههایی از افسران اطلاعاتی اسرائیل که توسط مجله +972 و Local Call دریافت شدهاند، نشان میدهد که تصمیمات ماشین به طور معمول توسط کارمندان انسانی به عنوان یک “قلموی لیاقتی” تلقی میشد، با وجود اینکه این سیستم در برخی موارد فردیان را با ارتباطات ضعیف با گروههای مسلح یا بدون هیچ ارتباطی، علامتگذاری میکرد. این ممکن است توجیه کند که چرا اسرائیل بر روی هدفهای ادعایی توسط لیوان، بمبهای “نادان”، سنگین و بیهدایت، استفاده کرد، که موجب خسارت و از دست رفتن جان غیرنظامیان شد.
استفاده از لیوان و استراتژیهای هدفگیری اسرائیل نگرانیهای گستردهای ایجاد کردهاند، بر اساس قضاوتها که دشوار است تفاوت بین اهداف نظامی معتبر و غیرنظامیان در قطاع غزه را تمییز دهند. سازمانهای حقوق بشر، از جمله آمنستی بینالملل، از اسرائیل خواستهاند که از دقیقترین سلاحها استفاده کند و خسارتهای مدنی را کمینه کند.
IDF به گزارش پاسخ داده و ادعا کرده که برخی از ادعاهای مطرح شده پایهنگاشتی ندارند. آنها ادعا میکنند که لیوان یک سیستم هوش مصنوعی نیست، بلکه یک پایگاه داده برای ارجاع به منابع اطلاعاتی برای راهنمایی تحلیلگران در فرایند شناسایی اهداف است.
واقعه اخیر درگیری در مورد یک حمله پهپادی اسرائیل به یک کاروان آشپزخانه مرکزی جهانی، که منجر به مرگ هفت کارگر امدادی شد، نیز توجه به رفتار اسرائیل در طول تضاد جلب کرده است. در پاسخ، رئیسجمهور بایدن از اسرائیل خواسته است که مسیر خود را تغییر دهد و اقدامهایی را برای حفاظت بهتر از غیرنظامیان و تسهیل تحویل کمکهای انسانی انجام دهد. به علاوه، صدها وکیل و قضات بریتانیایی از دولت خود خواستهاند که فروش سلاح به اسرائیل را متوقف کند تا از همکاری در نقضهای ممکن قانون بینالملل جلوگیری کند.
استفاده از هوش مصنوعی در عملیات نظامی مزایایی احتمالی ارائه میدهد، اما به پرسشهای اخلاقی در مورد دقت انتخاب اهداف و خطرات برای شهروندان میانجامد. با توجه به ادامه یافتن تضادها، حائز اهمیت است که ایالات ملتها اطمینان حاصل کنند که استفاده از تکنولوژیهای هوش مصنوعی در جنگ از قوانین بینالمللی انساندوستانه پیروی کرده و خسارتهای به شهروندان را کمینه کند.
پرسشهای متداول
The source of the article is from the blog klikeri.rs