واقعیت جنگ ساخت هوش مصنوعی: افشای عواقب غیرقصدی

استفاده اخیر ارتش اسرائیل از یک سیستم هوش مصنوعی (AI) به منظور تهیه لیست‌هایی از اهداف برای حملات هوایی در غزه توجه به پیامدهای جنگی هوش مصنوعی را به خود جلب کرده است. طبق گزارشی که توسط فروشگاه غیرانتفاعی +972 Magazine منتشر شده، سیستم معروف به Lavender همراه با سایر سیستم‌های هوش‌مصنوعی برای هدف‌گذاری و اغتشاش مشتبهین مورد استفاده قرار گرفته و منجر به آسیب‌های قابل توجه غیرنظامیان شده است.

هر چند نیروی دفاع اسرائیل اغلب ادعاها را در گزارش رد می‌کند و اعلام می‌کند که Lavender یک سیستم هوش مصنوعی نیست بلکه یک پایگاه داده برای مرجع‌گذاری منابع اطلاعاتی است، اما منابع دیگر تایید می‌کنند که از هوش مصنوعی در عملیات نظامی اسرائیل استفاده می‌شود. در سال 2021، روزنامه Jerusalem Post گزارش داد که اسرائیل از سیستم‌های یادگیری ماشین برای شناسایی اهداف در یک مناقشه با حماس استفاده کرده است. به علاوه، گزارشی قبلی از +972 یک سیستم هوش اصطلاحی به نام Habsora را ذکر می‌کند که به طور خودکار ساختمان‌ها و امکانات مشتبه میهنی را برای بمب‌گذاری شناسایی می‌کند.

پتانسیل هوش مصنوعی در امور نظامی کنفین ناپذیر به اسرائیل محدود نیست. کشورهایی مانند ایالات متحده و چین نیز برای مقاصد نظامی در سیستم‌های هوش مصنوعی سرمایه‌گذاری می‌کنند. دفاع‌کنندگان ادعا می‌کنند که هوش مصنوعی می‌تواند منجر به تصمیم‌گیری سریع‌تر، دقت بیشتر و کاهش قربانیان شود. با این حال، نگرانی‌هایی درباره کمبود نظارت انسانی و خطرات احتمالی در هدف‌های داده‌شده هوش مصنوعی وجود دارد.

گزارش اخیر +972 به ادعای Lavender مبنی بر اتوماتیزه‌سازی فرآیند شناسایی هدف، اما ممکن است معیارهای گم‌شده و استانداردهای پایین‌تر اثبات، منجر به خطاها در تقریباً 10٪ از موارد شود. گزارش همچنین نشان می‌دهد که اهداف به عنوان گزینه اول در خانه‌های آن‌ها بمباران می‌شوند و منجر به آسیب‌های ناشی از غیرنظامیان می‌شود.

مخاوف اخلاقی و حقوقی احاطه نظامی هوش مصنوعی به طور گسترده نادیده گرفته شده‌اند. در حال حاضر، هیچ قاعده عمومی یا قانوناً ملزمی برای استفاده از آن وجود ندارد. با این حال، تا اینجا توسعه‌هایی در رفع این نگرانی‌ها صورت گرفته است. سازمان ملل متحد بیش از ده سال است در مورد استفاده از “سیستم‌های سلاح‌های خودرو” بحث می‌کند و مجمع عمومی سازمان ملل در تاخته نسبت دادن به یک پیش‌نویس تصمیم‌العمل رأی به سودالمید که الگوریتم ها باید به طور کامل در کنترل تصمیماتی که شامل کشتن است نباشند. ایالات متحده همچنین دستوری در مورد استفاده مسئولانه از هوش مصنوعی و خودکاری منتشر کرده است که از حمایت کشوریان انواع فزایده است.

با وجود این تلاش‌ها، نظام‌های بین‌المللی در مورد استفاده از هوش مصنوعی نظامی روزبه روز با پیشرفت سریع فناوری دچار مشکلات شده‌اند. همانطور که ارتش‌های دنیا سیستم‌های هوش مصنوعی را در جنگ اتخاذ کرده‌اند، عواقب غیرقصدی و ضررهای انسانی همچنان بیشتر آشکار می‌شوند. گزارش‌هایی از استفاده از سیستم‌های هوش مصنوعی در غزه نشان می‌دهد که محدودیت‌ها و پیامدهای غیرقصدی اعتماد تنها به الگوریتم‌ها برای تصمیم‌گیری.

اهمیت دارد که با دیلما‌های اخلاقی و اخلاقی همراه با هوش مصنوعی نظامی برخورد کرد. باید نظارت انسانی و مقررات بین‌المللی ایجاد شود تا از سوءاستفاده از این فناوری قدرتمند جلوگیری شود و اطمینان حاصل شود که از آن به نحوی استفاده می‌شود که حقوق بشر را حفظ کرده و آسیب به غیرنظامیان به حداقل برسد.

The source of the article is from the blog exofeed.nl

Privacy policy
Contact