جدل “لاوندر”: عملیات مبتنی بر هوش مصنوعی اسرائیل در غزه

با تأیید از سوی ایالات متحده، نیروهای دفاع اسرائیل (IDF) گزارشاً از استفاده از یک سیستم هوش مصنوعی به نام “لیون” برای انجام عملیات در ناحیه گزه در حال استفاده هستند که به طور چشمگیری دامنه نظارت و هدف‌گیری خود را گسترش می‌دهد. با بهره‌گیری از الگوریتم‌های یادگیری ماشین، لیون داده‌های زیادی در مورد تقریباً 2.3 میلیون ساکن گزه پردازش می‌کند و به هر فرد یک امتیاز از 1 تا 100 نسبت‌می‌دهد که در نهایت اولویت داده شدن به آنها به عنوان هدف را تعیین می‌کند.

قابلیت‌های لیون در مرکز یک بحث بحرانی است، زیرا الگوریتم آن به‌طور اشتباه هزاران غیرنظامی را هم شناسه‌گذاری کرده است، به گفته کارکنان IDF. این افراد اکنون به‌طور ناخواسته برای زمانه‌کاران مسلح دسته‌بندی شده‌اند. لیون سرانه‌های محتمل را به دو گروه اصلی تقسیم می‌کند: ‘هدف‌های انسانی’، معمولاً کسانی با وضعیت فرماندهی، و ‘هدف‌های زباله’، ارجاع به سربازان رتبه‌پایین‌تر. گروه دوم معمولاً با موشک‌های بدون هدایتی که قادر به واردکردن خسارت قابل توجهی و جانی به غیرنظامیان هستند، درگیر می‌شوند.

این سیستم بدون نظارت انسانی عمل می‌کند که به یک نمونه از حملات گروهی خودکار علیه فلسطینیان در گزه منجر می‌شود. این رویکرد باعث ایجاد نگرانی‌های اخلاقی مهم شده است زیرا هدف‌های تعیین‌شده اغلب در خانه‌هایشان، در طول شب، در کنار خانواده‌هایشان حمله می‌شوند. بنابراین، این عمل ممکن است منجر به مرگ‌های بیشمار ناخواسته شود که به نام “خسارت‌های جانبی” شناخته می‌شوند.

خبرنگار اسرائیلی و فعال صلح یووال ابراهام تحقیقات عمیقی در مورد لیون انجام داده است و تبعات شدید را از این استراتژی‌های تحت‌کنترل هوش‌مصنوعی برجسته کرده است. ابراهام کشف کرده است که مقامات بالادست، اغلب از بررسی‌های دقیق افراد هدف عبور کرده‌اند و به پیشنهادات سیستم پاسخ داده و فرایند تأیید را در دست الگوریتم گذاشته‌اند که ممکن است با حداقل خطایی همراه باشد.

گزارشهای آبراهام تأیید می‌کند که اقداماتی که توسط لیون تسهیل شده‌اند باید توسط دادگاه بین‌المللی عدالت مورد بررسی قرار بگیرند، اعتقادی به شناسایی آن به‌عنوان تروریسم دولتی پتانسیلی و جرایم علیه بشریت دارد. زمانی که خط جدایی بین جنگ خودکار و عملیات نظامی مسئولانه از هم پاک می‌شود، اخلاق هوش مصنوعی در نواحی نبرد مانند گزه به دنبال ایجاد گفتمان‌های بین‌المللی مهم می­‌باشد.

سوالات و پاسخ‌های مهم:

1. چه تأثیراتی دارد از استفاده از هوش مصنوعی مانند “لیون” در عملیات نظامی؟
استفاده از هوش مصنوعی در عملیات نظامی سوالات اخلاقی، حقوقی و مسئولیتی مهمی را به وجود می­آورد. سیستم‌های هوش مصنوعی مانند لیون قادر به پردازش حجم عظیمی از داده برای شناسایی و اولویت‌بندی اهداف هستند، اما ممکن است اشتباه کنند و موجب مرگ یا آسیب به غیرنظامیان یا نقض قوانین بین­المللی شوند.

2. لیون چگونه بین نیروهای نظامی و غیرنظامیان تمایز قائل می‌شود؟
گزارش‌ها نشان می‌دهند که لیون به افراد امتیازی تخصیص می¬دهد و آن‌ها را احتمالاً به عنوان ‘هدف‌های انسانی’ یا ‘هدف‌های زباله’ دسته‌بندی می‌کند. با این حال این دسته‌بندی به اشتباهات منتهی شده‌است، که ممکن است غیرنظامیان به عنوان نظامیان شناسایی شوند و نگرانی‌هایی را در مورد دقت و تبعیض الگوریتم پیش‌انداز کنند.

3. چالش‌ها و اختلافات اصلی مرتبط با “لیون” چیست؟
چالش‌های اصلی شامل احتمال اشتباه در شناسایی، کمبود نظارت انسانی که منجر به حملات خودکار بدون بررسی کافی می‌شود و پیامدهای اخلاقی انتقال تصمیمات زندگی و مرگ به ماشین‌ها است. بعلاوه، استفاده از چنین سیستم‌هایی ممکن است به‌عنوان یک شکل از خشونت حمایت شده توسط دولت مشاهده شود اگر باعث آسیب یا مرگ غیرنظامیان شوند و سوالاتی در مورد رعایت قوانین بین‌المللی انسان‌دوستانه پیشاپیش آورند.

مزایا و معایب:

مزایا:
– افزایش کارایی در پردازش داده و شناسایی اهداف احتمالی.
– قابلیت عمل پایدار بدون خستگی، مانند اپراتورهای انسانی.
– ممکن است با سریع تطابق با شرایط در حال تحول در میدان مزایاي استراتژيکي ارائه دهد.

معایب:
– ریسک اشتباه در شناسایی غیرنظامیان به عنوان نظامیان، منجر به آسیب یا مرگ نادرست می‌شود.
– کمبود مسئولیت و شفافیت در فرآیند تصمیم‌گیری.
– نگرانی‌های اخلاقی در مورد ناخودآدمی جنگ و نقض‌های بین‌المللی.
– فروپاشی ممکن فرآیند نظارت انسانی و مسئولیت اخلاقی در عملیات نظامی.

برای کسب اطلاعات بیشتر در مورد اخلاق و مقررات هوش مصنوعی در سواحل نظامی، ممکن است به دامین‌های رسمی زیر مراجعه کنید:

سازمان ملل
کمیته بین‌المللی صلیب سرخ
سازمان بین‌المللی عفونی
وزارت دفاع ایالات متحده

لطفاً توجه داشته باشید که با این‌که این پیوندها به دامین‌های اصلی ارگان‌هایی است که اطلاعات مرتبط با استفاده از هوش مصنوعی در عملیات نظامی ارائه می‌دهند، اطلاعات خاص در مورد “لیون” و استفاده از آن توسط نیروهای دفاع اسرائیل ممکن است به‌صورت مستقیم در این سایت‌ها موجود نباشد.

Privacy policy
Contact