پتانسیل هوش مصنوعی در جنگ: یک نگاه جدید

هوش مصنوعی (AI) در جنگ به ماجراهای نگران‌کننده ایجاد نگرانی کرده‌است، زیرا سوالاتی دربارهٔ جایگزینی ارادهٔ انسانی و عملکرد توسط دستگاه‌های کشنده AI پیش می‌آورد. با این حال، سامانه‌های خودکار AI در جنگهای سنتی که توسط انسان‌ها عمل می‌کنند، در حال حاضر استفاده می‌شوند. این باور که سامانه‌های خودکار ارادهٔ انسانی را زیر سوال ببرند یک ایده غلط است زیرا وعدهٔ دقت در جنگهای مدرن نشان می‌دهد که تعداد صدمه‌های ناشی از بمباران به غیرنظامیان کاهش می‌یابد اما وقعیت در برابر افراد عمل کننده و غیرنظامیان به صورت چشمگیری بیشتر خواهد بود.

مطالعه موردی اخیر بر روی استفاده از هوش مصنوعی توسط اسرائیل در جنگ، به ویژه در خطوط جدایی، تمرکز دارد. نیروهای دفاعی اسرائیل هوش مصنوعی را به عملیات خود تعمیم دادند تا اهداف را ایدنتیفای کنند و ردیابی کنند. با اینحال، نتیجه دقیق یا از نظر اخلاقی مطلوب نبوده است. به جای محدود کردن صدمات به غیرنظامیان، استفاده از هوش مصنوعی اسرائیل به نظر می‌رسد که مجموعه اهداف را گسترش داده و باعث کمترین صدمات ممکن شده است.

بررسی این موضوع به ارجاع به یک انتشار مقاله به نام “تیم انسان و ماشین: چگونه انسان و هوش مصنوعی آینده خود را به روز خواهد کرد” است که توسط سرتیپ ی. اس. نویسنده و دستیار دیتا در واحد اطلاعات اسرائیل 8200 نوشته شده‌است. این انتشار برای یک سامانه تبادلی که به سرعت هزاران هدف پتانسیلی در زمان‌های تضاد ایجاد می‌کند، طرفداری می‌کند، که هدف بدیش نیاز به تأیید انسانی و گذر از الزامات بررسی قابلیت هدف هنگام ردیابی دارد.

بر اساس تحقیق مشترک توسط +972 و تماس محلی، مرحله پیشرفته این سامانه، که به نیروهای اسرائیل معروف است به نام لیوندا، آشکار شد. لیوندا از سامانه‌های پیشین AI گذشته و ساختمان‌ها و سازه‌های نظامی و کاربردی افراد مسلح را ایجاد می‌کند. اما حتی این شکل شناسایی، توقفی موثر روی تعداد کشته‌شدگان نداشته و به چه شکلی ممکن است یک “کارخانه ترور جمعی” شکل بگیرد.

شش دفتر مخابراتی اسرائیلی، که در طول جنگ اخیر در خطوط جدایی خدمت می‌کردند، نقش مرکزی لیوندا را در بمباران بی‌نظیر فلسطینی‌ها اعلام کردند، به ویژه در مراحل ابتدایی تضاد. ماشین AI عنصر انسانی را به سمت کمتر درصد انسانیت کم کرده و به نتایج هدفگذاری ارزیابی‌ای بی‌واقعی بخشید.

در هفته‌های ابتدایی جنگ، نیروهای دفاعی اسرائیل بسیار به لیوندا نیاز داشتند و حدود ۳۷۰۰۰ فلسطینی را به عنوان افراد مسلح پتانسیلی برای حمله‌های ممکن شناختند. این تغییر از دکترین قبلی هدفزدایی از افراد سطح عالی نظامی به کلیت افراد نسبت شاخص باعث شد.

اعضاء مجوز جواز کشتن روی هر اهداف بدون بازبینی را در اختیار داشتند، با دادن آنچه کمتر از ۲۰ ثانیه برای هر هدف قبل از تأیید بمبگذاری اختصاص دادند. اجازه به همراه آگاهی از حدود ۱۰ درصد موارد همراه با اشتباهات در هدف‌گیری داده شد که گاها نشان‌های فردی با اتصالات لیز یا حتی بدون ارتباط با گروه‌های مسلح علامت‌گذاری شد.

علاوه بر این، سیستم لیوندا با یک پلت فرم خودکار دیگر به نام “کجا پدر؟” همکار بود. این پلت‌فرم افراد هدفمند را تا خانه‌های خویشاوندی شان ردیابی کرد که پس از آن تخریب شدند. نتیجه یک تعداد زیادی غیرنظامی درگیر با زنان و کودکان، توسط بمباران‌های اسرائیل در مراحل ابتدایی تضاد، به قتل رسیدند.

یکی از افسران اطلاعاتی واقعیت تلخی را گفت که کشتن افراد ستادی حماس در ساختمان‌های نظامی یا در حین فعالیت‌های نظامی از کم اهمیت است. به جای آن، تمرکز اصلی بر روی بمباران خانه‌های آن‌ها بود، زیرا این کار واقعا که ساده‌تر به نظر می‌آمد. سیستم لیوندا به ویژه برای چنین موقعیت‌هایی طراحی شده‌است.

استفاده از این سیستم محاسباتی و ترسناک بوده‌است. دو منبع اعلام کردند که در هفته‌های ابتدایی جنگ، اجازهٔ کشتن تا ۱۵ یا ۲۰ غیرنظامی برای هر افراد جوان حماسی توسط لیوندا مجاز شد. برای افراد ارشد حماسی، تعداد مجازی مرگ‌ها می‌توانست تا ۱۰۰ غیرنظامی برسد.

پس از این رمزگشایی‌ها، نیروهای دفاعی اسرائیل به ادعا پابرجاست که از یک سیستم AI برای ایدنتیفای کردن تروریست‌ها یا پیش‌بینی وضعیت یک فرد به عنوان یک تروریست استفاده نمی‌کند. به جای آن، ادعا این است که یک پایگاه داده منابع اطلاعاتی را بر روی فرماندهان نظامی افرازقشر‌هایگونهسماعی کروس می‌کند.

دبیر کل سازمان ملل متحد António Guterres به خبرهای استفاده اسرائیل از هوش مصنوعی برای شناسایی اهداف، به ویژه در مناطق ساکن مستغرق عمیق، نگرانی عمیق خود را اعلام کرده‌است. استفاده از هوش مصنوعی در این شیوه منجر به تعداد زیادی از مرگ‌های غیرنظامیان شده و سوالات اخلاقی و انسانی را دربارهٔ تأثیر هوش مصنوعی در جنگ بر روی دقت و تأثیر پذیری عرضه می‌کند.

سوالات متداول (FAQ):

س: سیستم لیوندا چیست؟
ج: سیستم لیوندا یک آفرینش AI است که توسط نیروهای دفاعی اسرائیل برای شناسایی اهداف در جنگ استفاده می‌شود.

س: چقدر سیستم لیوندا در هدفگیری دقیق است؟
ج: سیستم لیوندا به نظریه هدف‌گذاری در دقت دارد، اما افرادی را هم نشان می‌دهد که اتصال ضعیف یا هیچ ارتباطی با گروه‌های مسلح ندارند.

س: چگونه صدمات غیرنظامیان توسط استفاده از سیستم لیوندا تحت تأثیر قرار گرفت؟
ج: استفاده از سیستم لیوندا، همراه با پلت فرم‌های خودکار دیگر، به ویژه در خطوط جدایی، منجر به صدمات زیادی به غیرنظامیان شده و پرسش‌های اخلاقی پیرامون تأثیر جنگ‌های دشوار AI را ارتقا داده است.

منابع:
– +972: URL
– تماس محلی: URL
– زمان‌های اسرائیل: URL

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact