یک سیستم هوش مصنوعی نظامی اسرائیلی که به عنوان ‘لاوندر’ شناخته میشود، نقش اساسی در انتخاب اهداف برای فعالیتهای بمبارانی در قطاع غزه دارد، یک افشایی که بحث عمیقی را بین متخصصان به وجود آورده است. نگرانیها نسبت به اینکه چه کسی در نهایت کنترل را در دست دارد – انسان یا ماشین – وجود دارد.
جزئیات سیستم لاوندر به خوبی به مردم شناخته نشدهاند. با این حال، عملکرد آن بر اساس تجزیه و تحلیل مقدار زیادی از دادهها برای پیدا کردن موقعیت مبارزان حماس با هدف تغییر نسبت به آنان است. روزنامهنگاران تحقیقاتی اسرائیلی بر اهمیت بالقوهای که این سیستم ممکن است در جنگ جدید بازی کند از طریق شهادتهای افسران سابق و منابع اطلاعاتی بوده اند.
بر اساس گفته روی لیندلاف، یک افسر ارتش سابق و استاد دادهشناسی نظامی، لاوندر از زمینههای مختلفی از اطلاعات استفاده میکند، از جمله دادههای ماهوارهای دستهبندی شده، حسگرها، رسانههای اجتماعی و ارتباطات تلفنی. گفته میشود این رویکرد دادهمحور موفق شده بیش از 37,000 نفر را به عنوان اهداف بالقوه تشخیص دهد.
سیستم لاوندر شش هفته پس از شروع یک کنفرانس به جنگ معرفی شد و گزارشها نشان داد که به نقل از نظامی 90% از دقت را در تشخیص جنگجویان حماس دارد پیش از اخذ موافقت از سوی نظامی برای عملیات گسترده. کارایی هوش مصنوعی زمان انتخاب هدف را به چندین ثانیه کاهش داد، که برخی معتقدند نظارت انسانی تنها به مهمانخانه رفتن منحصر به فرد کاهش یافته است.
نظامیان اسرائیل در پاسخ به ادعاها درباره لاوندر اعلام کردهاند که این هوش مصنوعی تنها به عنوان یک کمک عمل میکند، برای شناسایی تروریستها یا پیشبینی رفتارها نیست. این مجموعه موسوم به ‘سیستم’ تنها به عنوان یک پایگاه داده جامع توصیف شده و به عنوان یک موجودیت مستقل نیست.
مقامات نظامی اعتراف میکنند که از یک ‘ماشین سریع و موثر’ که بیش از هر انسانی در پردازش دادهها به اطلاعآوری عملی میپیوندد، استفاده میکنند. با این حال، جزئیات دقیق عملکرد داخلی به طور گستردهای به مردم افشا نشده است. در حالی که سیستم هوش مصنوعی ممکن است محاسبه انسانی را بیشتر کند و خطاهای انسانی را کاهش دهد، به دلیل حساسیت این نظامها در تصمیمگیریهای جنگی، نگرانیهای دست و پا چلفتی درباره نحوه استفاده از آن وجود دارد.
متخصصان برای حفظ مسئولیت و پاسخگویی انسانی در فرآیند تصمیمگیری به کمک هوش مصنوعی آرا میدهند. این مسئله نشان میدهد نگرانیها درباره تسریع تصمیمگیری نظامی در قطاع غزه و اینکه آیا بازرسی انسانی با عملیات کمکی هوش مصنوعی همراه است ادامه دارد.
به عنوان شاهدی به نیاز به حفظ مسئولیت و پویایی در فرآیند تصمیمگیری با هوش مصنوعی اشاره میکنند که تاکید بر نگرانیهای مربوط به افزایش سریع نبرد در غزه و اینکه نظارت انسانی با عملکردهای کمکی هوش مصنوعی هماهنگ است.
این سیستم به عنوان پیوستاری از یک روند بزرگتر در نبردهای جدید با پیامدهای عمیق برای اخلاق نظامی و نقش فناوری در منازعه در نظر گرفته میشود.
چالشها و اختلافات کلیدی:
ادغام سیستم هوش مصنوعی لاوندر در عملیات نظامی، نشان دهنده پیشرفت فناورانه مهمی است، اما باعث ایجاد چالشها و اختلافات کلیدی زیر میشود:
– پیامدهای اخلاقی: درباره استفاده از هوش مصنوعی در انتخاب اهداف یک بحث اخلاقی بزرگ وجود دارد. سوال مسئولیت زمانی پیچیده میشود که تصمیمات زندگی و مرگ تحت تأثیر الگوریتمها قرار میگیرد. سازمانهای حقوق بشر نگران هستند که استفاده از هوش مصنوعی میتواند منجر به یک رویکرد غیر رسمی نزاع زیاد و نقضهای بینالمللی شود.
– شفافیت و مخفیگری: کمبود شفافیت در سیستمهای هوش مصنوعی مانند لاوندر امری مشکلی است. رازداری درباره عملکرد سیستم سوالاتی را پیش میآورد که چگونه اهداف انتخاب میشوند، چگونه دادهها تفسیر میشوند و احتمال وجود تعصب یا خطا.
– هوش مصنوعی و نظارت انسانی: بحث درباره اینکه چقدر تصمیمگیری را به هوش مصنوعی واگذار کرد، به طور دائمی ادامه دارد. این امکان که ماشینها تصمیمات خودکار در نبردها بگیرند از نظر اخلاقی و استراتژیک بار است. خطر این است که با سرعت و کارایی هوش مصنوعی، نظارت انسانی ممکن است فقط یک شکلی شایسته شود، که در صورت خطا یا اشتباه در ماشین، ممکن است فاجعهبار باشد.
– خطای ماشین: سیستمهای هوش مصنوعی، در حالی که میتوانند دادهها را سریعتر از انسانها پردازش کنند، ناپذیر و ممکن است اشتباه کنند. وابستگی به هوش مصنوعی برای شناسایی اهداف ممکن است منجر به هدفهای نادرست و خسارات غیرنظامیان شود.
مزایا و معایب:
مزایای استفاده از هوش مصنوعی مانند لاوندر در سیاق نظامی عبارتند از:
– افزایش کارایی: سیستمهای هوش مصنوعی میتوانند دادهها را بسرعت از انسانها پردازش کرده و تحلیل کنند، امکان شناسایی سریع هدف را فراهم کرده و ممکن است جلوی ادامه خشونت را بگیرند یا مدت زمان نبرد را کاهش دهند.
– کاهش خطای انسانی: انسانها ممکن است به دلیل استرس، خستگی یا نادیده گرفتن اشتباه بکنند. سیستمهای هوش مصنوعی به طور نظری میتوانند کمک کنند که این اشتباهات را از طریق تجزیه و تحلیل ثابت دادهگرانه کاهش دهند.
با این حال، نیز معایب مهمی وجود دارد:
– امکان سوء استفاده: یک سیستم هوش مصنوعی قدرتمند ممکن است در صورت عدم وجود تضمینات قوی برای هدفهای غیرنظامی یا افرادی با تفکر سیاسی، سوء استفاده شود.
– غیرفردایی در تضاد: بر اتکای بر هوش مصنوعی برای تصمیمات بحرانی در جنگ میتواند منجر به تفریح بیشتر در تضاد، بیانسانیسازی نبرد و کاهش حساسیت نظامی و عمومی به وحشتهای جنگ شود.
برای اطلاعات بیشتر در زمینههای گستردهتر هوش مصنوعی، اخلاق و نظامی، روی لینکهای زیر که اختصاص به این مباحث دارند، کلیک نمایید:
– کارشناسی رند – یک مؤسسه که تحقیقات و تحلیلها در زمینه انواع مسائل سیاستی جهانی فراهم میکند، از جمله استفاده نظامی از هوش مصنوعی.
– سازمان بینالمللی عفو بینالملل – یک سازمان حقوق بشری بینالمللی که در مورد مسائل اخلاقی و هوش مصنوعی گزارشها ارائه میدهد.
– اتحادیه مدنی آمریکا (ACLU) – یک سازمان که درباره پیامدهای هوش مصنوعی در حقوق شهروندی صحبت کرده است، از جمله استفاده آن در محیطهای نظامی و نظارتی.
The source of the article is from the blog lisboatv.pt