هوش مصنوعی (AI) در جنگ به ماجراهای نگرانکننده ایجاد نگرانی کردهاست، زیرا سوالاتی دربارهٔ جایگزینی ارادهٔ انسانی و عملکرد توسط دستگاههای کشنده AI پیش میآورد. با این حال، سامانههای خودکار AI در جنگهای سنتی که توسط انسانها عمل میکنند، در حال حاضر استفاده میشوند. این باور که سامانههای خودکار ارادهٔ انسانی را زیر سوال ببرند یک ایده غلط است زیرا وعدهٔ دقت در جنگهای مدرن نشان میدهد که تعداد صدمههای ناشی از بمباران به غیرنظامیان کاهش مییابد اما وقعیت در برابر افراد عمل کننده و غیرنظامیان به صورت چشمگیری بیشتر خواهد بود.
مطالعه موردی اخیر بر روی استفاده از هوش مصنوعی توسط اسرائیل در جنگ، به ویژه در خطوط جدایی، تمرکز دارد. نیروهای دفاعی اسرائیل هوش مصنوعی را به عملیات خود تعمیم دادند تا اهداف را ایدنتیفای کنند و ردیابی کنند. با اینحال، نتیجه دقیق یا از نظر اخلاقی مطلوب نبوده است. به جای محدود کردن صدمات به غیرنظامیان، استفاده از هوش مصنوعی اسرائیل به نظر میرسد که مجموعه اهداف را گسترش داده و باعث کمترین صدمات ممکن شده است.
بررسی این موضوع به ارجاع به یک انتشار مقاله به نام “تیم انسان و ماشین: چگونه انسان و هوش مصنوعی آینده خود را به روز خواهد کرد” است که توسط سرتیپ ی. اس. نویسنده و دستیار دیتا در واحد اطلاعات اسرائیل 8200 نوشته شدهاست. این انتشار برای یک سامانه تبادلی که به سرعت هزاران هدف پتانسیلی در زمانهای تضاد ایجاد میکند، طرفداری میکند، که هدف بدیش نیاز به تأیید انسانی و گذر از الزامات بررسی قابلیت هدف هنگام ردیابی دارد.
بر اساس تحقیق مشترک توسط +972 و تماس محلی، مرحله پیشرفته این سامانه، که به نیروهای اسرائیل معروف است به نام لیوندا، آشکار شد. لیوندا از سامانههای پیشین AI گذشته و ساختمانها و سازههای نظامی و کاربردی افراد مسلح را ایجاد میکند. اما حتی این شکل شناسایی، توقفی موثر روی تعداد کشتهشدگان نداشته و به چه شکلی ممکن است یک “کارخانه ترور جمعی” شکل بگیرد.
شش دفتر مخابراتی اسرائیلی، که در طول جنگ اخیر در خطوط جدایی خدمت میکردند، نقش مرکزی لیوندا را در بمباران بینظیر فلسطینیها اعلام کردند، به ویژه در مراحل ابتدایی تضاد. ماشین AI عنصر انسانی را به سمت کمتر درصد انسانیت کم کرده و به نتایج هدفگذاری ارزیابیای بیواقعی بخشید.
در هفتههای ابتدایی جنگ، نیروهای دفاعی اسرائیل بسیار به لیوندا نیاز داشتند و حدود ۳۷۰۰۰ فلسطینی را به عنوان افراد مسلح پتانسیلی برای حملههای ممکن شناختند. این تغییر از دکترین قبلی هدفزدایی از افراد سطح عالی نظامی به کلیت افراد نسبت شاخص باعث شد.
اعضاء مجوز جواز کشتن روی هر اهداف بدون بازبینی را در اختیار داشتند، با دادن آنچه کمتر از ۲۰ ثانیه برای هر هدف قبل از تأیید بمبگذاری اختصاص دادند. اجازه به همراه آگاهی از حدود ۱۰ درصد موارد همراه با اشتباهات در هدفگیری داده شد که گاها نشانهای فردی با اتصالات لیز یا حتی بدون ارتباط با گروههای مسلح علامتگذاری شد.
علاوه بر این، سیستم لیوندا با یک پلت فرم خودکار دیگر به نام “کجا پدر؟” همکار بود. این پلتفرم افراد هدفمند را تا خانههای خویشاوندی شان ردیابی کرد که پس از آن تخریب شدند. نتیجه یک تعداد زیادی غیرنظامی درگیر با زنان و کودکان، توسط بمبارانهای اسرائیل در مراحل ابتدایی تضاد، به قتل رسیدند.
یکی از افسران اطلاعاتی واقعیت تلخی را گفت که کشتن افراد ستادی حماس در ساختمانهای نظامی یا در حین فعالیتهای نظامی از کم اهمیت است. به جای آن، تمرکز اصلی بر روی بمباران خانههای آنها بود، زیرا این کار واقعا که سادهتر به نظر میآمد. سیستم لیوندا به ویژه برای چنین موقعیتهایی طراحی شدهاست.
استفاده از این سیستم محاسباتی و ترسناک بودهاست. دو منبع اعلام کردند که در هفتههای ابتدایی جنگ، اجازهٔ کشتن تا ۱۵ یا ۲۰ غیرنظامی برای هر افراد جوان حماسی توسط لیوندا مجاز شد. برای افراد ارشد حماسی، تعداد مجازی مرگها میتوانست تا ۱۰۰ غیرنظامی برسد.
پس از این رمزگشاییها، نیروهای دفاعی اسرائیل به ادعا پابرجاست که از یک سیستم AI برای ایدنتیفای کردن تروریستها یا پیشبینی وضعیت یک فرد به عنوان یک تروریست استفاده نمیکند. به جای آن، ادعا این است که یک پایگاه داده منابع اطلاعاتی را بر روی فرماندهان نظامی افرازقشرهایگونهسماعی کروس میکند.
دبیر کل سازمان ملل متحد António Guterres به خبرهای استفاده اسرائیل از هوش مصنوعی برای شناسایی اهداف، به ویژه در مناطق ساکن مستغرق عمیق، نگرانی عمیق خود را اعلام کردهاست. استفاده از هوش مصنوعی در این شیوه منجر به تعداد زیادی از مرگهای غیرنظامیان شده و سوالات اخلاقی و انسانی را دربارهٔ تأثیر هوش مصنوعی در جنگ بر روی دقت و تأثیر پذیری عرضه میکند.
سوالات متداول (FAQ):
س: سیستم لیوندا چیست؟
ج: سیستم لیوندا یک آفرینش AI است که توسط نیروهای دفاعی اسرائیل برای شناسایی اهداف در جنگ استفاده میشود.
س: چقدر سیستم لیوندا در هدفگیری دقیق است؟
ج: سیستم لیوندا به نظریه هدفگذاری در دقت دارد، اما افرادی را هم نشان میدهد که اتصال ضعیف یا هیچ ارتباطی با گروههای مسلح ندارند.
س: چگونه صدمات غیرنظامیان توسط استفاده از سیستم لیوندا تحت تأثیر قرار گرفت؟
ج: استفاده از سیستم لیوندا، همراه با پلت فرمهای خودکار دیگر، به ویژه در خطوط جدایی، منجر به صدمات زیادی به غیرنظامیان شده و پرسشهای اخلاقی پیرامون تأثیر جنگهای دشوار AI را ارتقا داده است.
منابع:
– +972: URL
– تماس محلی: URL
– زمانهای اسرائیل: URL
The source of the article is from the blog publicsectortravel.org.uk