استفاده اخیر ارتش اسرائیل از یک سیستم هوش مصنوعی (AI) به منظور تهیه لیستهایی از اهداف برای حملات هوایی در غزه توجه به پیامدهای جنگی هوش مصنوعی را به خود جلب کرده است. طبق گزارشی که توسط فروشگاه غیرانتفاعی +972 Magazine منتشر شده، سیستم معروف به Lavender همراه با سایر سیستمهای هوشمصنوعی برای هدفگذاری و اغتشاش مشتبهین مورد استفاده قرار گرفته و منجر به آسیبهای قابل توجه غیرنظامیان شده است.
هر چند نیروی دفاع اسرائیل اغلب ادعاها را در گزارش رد میکند و اعلام میکند که Lavender یک سیستم هوش مصنوعی نیست بلکه یک پایگاه داده برای مرجعگذاری منابع اطلاعاتی است، اما منابع دیگر تایید میکنند که از هوش مصنوعی در عملیات نظامی اسرائیل استفاده میشود. در سال 2021، روزنامه Jerusalem Post گزارش داد که اسرائیل از سیستمهای یادگیری ماشین برای شناسایی اهداف در یک مناقشه با حماس استفاده کرده است. به علاوه، گزارشی قبلی از +972 یک سیستم هوش اصطلاحی به نام Habsora را ذکر میکند که به طور خودکار ساختمانها و امکانات مشتبه میهنی را برای بمبگذاری شناسایی میکند.
پتانسیل هوش مصنوعی در امور نظامی کنفین ناپذیر به اسرائیل محدود نیست. کشورهایی مانند ایالات متحده و چین نیز برای مقاصد نظامی در سیستمهای هوش مصنوعی سرمایهگذاری میکنند. دفاعکنندگان ادعا میکنند که هوش مصنوعی میتواند منجر به تصمیمگیری سریعتر، دقت بیشتر و کاهش قربانیان شود. با این حال، نگرانیهایی درباره کمبود نظارت انسانی و خطرات احتمالی در هدفهای دادهشده هوش مصنوعی وجود دارد.
گزارش اخیر +972 به ادعای Lavender مبنی بر اتوماتیزهسازی فرآیند شناسایی هدف، اما ممکن است معیارهای گمشده و استانداردهای پایینتر اثبات، منجر به خطاها در تقریباً 10٪ از موارد شود. گزارش همچنین نشان میدهد که اهداف به عنوان گزینه اول در خانههای آنها بمباران میشوند و منجر به آسیبهای ناشی از غیرنظامیان میشود.
مخاوف اخلاقی و حقوقی احاطه نظامی هوش مصنوعی به طور گسترده نادیده گرفته شدهاند. در حال حاضر، هیچ قاعده عمومی یا قانوناً ملزمی برای استفاده از آن وجود ندارد. با این حال، تا اینجا توسعههایی در رفع این نگرانیها صورت گرفته است. سازمان ملل متحد بیش از ده سال است در مورد استفاده از “سیستمهای سلاحهای خودرو” بحث میکند و مجمع عمومی سازمان ملل در تاخته نسبت دادن به یک پیشنویس تصمیمالعمل رأی به سودالمید که الگوریتم ها باید به طور کامل در کنترل تصمیماتی که شامل کشتن است نباشند. ایالات متحده همچنین دستوری در مورد استفاده مسئولانه از هوش مصنوعی و خودکاری منتشر کرده است که از حمایت کشوریان انواع فزایده است.
با وجود این تلاشها، نظامهای بینالمللی در مورد استفاده از هوش مصنوعی نظامی روزبه روز با پیشرفت سریع فناوری دچار مشکلات شدهاند. همانطور که ارتشهای دنیا سیستمهای هوش مصنوعی را در جنگ اتخاذ کردهاند، عواقب غیرقصدی و ضررهای انسانی همچنان بیشتر آشکار میشوند. گزارشهایی از استفاده از سیستمهای هوش مصنوعی در غزه نشان میدهد که محدودیتها و پیامدهای غیرقصدی اعتماد تنها به الگوریتمها برای تصمیمگیری.
اهمیت دارد که با دیلماهای اخلاقی و اخلاقی همراه با هوش مصنوعی نظامی برخورد کرد. باید نظارت انسانی و مقررات بینالمللی ایجاد شود تا از سوءاستفاده از این فناوری قدرتمند جلوگیری شود و اطمینان حاصل شود که از آن به نحوی استفاده میشود که حقوق بشر را حفظ کرده و آسیب به غیرنظامیان به حداقل برسد.
The source of the article is from the blog exofeed.nl