تأثیرات جدیدگزارش تازه از استفاده از پایگاه داده‌های هوش مصنوعی توسط اسرائیل برای انتخاب اهداف

جدیدترین گزارش نشان‌دهنده استفاده ادعایی از یک پایگاه داده توانمند برای انتخاب اهداف در قطاع غزه توسط اسرائیل روشنگری آورده است. این گزارش، منتشر شده توسط مجله +972 و Local Call، ادعا می‌کند که ابزار موسوم به “لیوان” توسط داده‌های نظامی اسرائیل آموزش داده شده بود و با مرور داده‌های پایش و سایر اطلاعات بزرگ، اهدافی برای ترور ایجاد می‌کرد.

به گزارش، لیوان ممکن است نقش مهمی را در مراحل اولیه تضاد اخیر بین اسرائیل و حماس بازی کرده باشد، زیرا اسرائیل بیش از ۳۷،۰۰۰ فلسطینی و خانه‌های آن‌ها را به عنوان اهداف ترور شناسایی کرده بود. با این حال، نیروهای دفاعی اسرائیل (IDF) وجود یک “لیست کشتن” را رد کرده و لیوان را یک پایگاه داده برای مراجعه به منابع اطلاعاتی توصیف کرده‌اند.

استفاده از هوش مصنوعی در استراتژی‌های هدف‌گیری نگرانی‌هایی در مورد مقیاس تخریب و تعداد زیاد جان باختگان در قطاع غزه ایجاد کرده است. درگذشته، تضاد‌هایی بین اسرائیل و حماس شامل یک فرآیند بیشتر براساس اطلاعات و داده‌های دیگری بود. با این حال، ورود لیوان در طیه‌ای از خشم و صدمه‌های اسرائیل پس از یک حمله تروریستی توسط حماس ممکن است به یک برنامه سریع و گسترده انتقامی منجر شده باشد.

شهادت‌نامه‌هایی از افسران اطلاعاتی اسرائیل که توسط مجله +972 و Local Call دریافت شده‌اند، نشان می‌دهد که تصمیمات ماشین به طور معمول توسط کارمندان انسانی به عنوان یک “قلموی لیاقتی” تلقی می‌شد، با وجود اینکه این سیستم در برخی موارد فردیان را با ارتباطات ضعیف با گروه‌های مسلح یا بدون هیچ ارتباطی، علامت‌گذاری می‌کرد. این ممکن است توجیه کند که چرا اسرائیل بر روی هدف‌های ادعایی توسط لیوان، بمب‌های “نادان”، سنگین و بی‌هدایت، استفاده کرد، که موجب خسارت و از دست رفتن جان غیرنظامیان شد.

استفاده از لیوان و استراتژی‌های هدف‌گیری اسرائیل نگرانی‌های گسترده‌ای ایجاد کرده‌اند، بر اساس قضاوت‌ها که دشوار است تفاوت بین اهداف نظامی معتبر و غیرنظامیان در قطاع غزه را تمییز دهند. سازمان‌های حقوق بشر، از جمله آمنستی بین‌الملل، از اسرائیل خواسته‌اند که از دقیق‌ترین سلاح‌ها استفاده کند و خسارت‌های مدنی را کمینه کند.

IDF به گزارش پاسخ داده و ادعا کرده که برخی از ادعاهای مطرح شده پایه‌نگاشتی ندارند. آن‌ها ادعا می‌کنند که لیوان یک سیستم هوش مصنوعی نیست، بلکه یک پایگاه داده برای ارجاع به منابع اطلاعاتی برای راهنمایی تحلیلگران در فرایند شناسایی اهداف است.

واقعه اخیر درگیری در مورد یک حمله پهپادی اسرائیل به یک کاروان آشپزخانه مرکزی جهانی، که منجر به مرگ هفت کارگر امدادی شد، نیز توجه به رفتار اسرائیل در طول تضاد جلب کرده است. در پاسخ، رئیس‌جمهور بایدن از اسرائیل خواسته است که مسیر خود را تغییر دهد و اقدام‌هایی را برای حفاظت بهتر از غیرنظامیان و تسهیل تحویل کمک‌های انسانی انجام دهد. به علاوه، صدها وکیل و قضات بریتانیایی از دولت خود خواسته‌اند که فروش سلاح به اسرائیل را متوقف کند تا از همکاری در نقض‌های ممکن قانون بین‌الملل جلوگیری کند.

استفاده از هوش مصنوعی در عملیات نظامی مزایایی احتمالی ارائه می‌دهد، اما به پرسش‌های اخلاقی در مورد دقت انتخاب اهداف و خطرات برای شهروندان می‌انجامد. با توجه به ادامه یافتن تضاد‌ها، حائز اهمیت است که ایالات ملت‌ها اطمینان حاصل کنند که استفاده از تکنولوژی‌های هوش مصنوعی در جنگ از قوانین بین‌المللی انساندوستانه پیروی کرده و خسارت‌های به شهروندان را کمینه کند.

پرسش‌های متداول

The source of the article is from the blog klikeri.rs

Privacy policy
Contact