ادغام فزاینده هوش مصنوعی (AI) در عملیات نظامی در سطح جهانی نگرانیهای اخلاقی مهمی را به وجود آورده است. پس از برگزاری اولین اجلاس در هلند در سال گذشته، REAIM 2024 هدف دارد درک سیاسی نقش هوش مصنوعی در دفاع را افزایش دهد و استفاده مسئولانه از آن را در نیروهای مسلح در سطح جهانی ترویج کند.
فناوری هوش مصنوعی به سرعت در حال تغییر جنبههای مختلف زندگی انسانی است و کاربرد نظامی آن چالشی به خصوص شدید را به وجود میآورد. مقامات ارشد تاکید میکنند که در حالی که هوش مصنوعی میتواند به طور چشمگیری کارایی نظامی را بهبود بخشد، در صورتی که به اشتباه استفاده شود، خطرات قابل توجهی نیز به همراه خواهد داشت. وزیر دفاع کره جنوبی اخیراً اهمیت چارچوبهای قانونی بینالمللی برای کنترل استفاده مسئولانه از هوش مصنوعی در محیطهای دفاعی را دوباره یادآوری کرد.
بحثها در اجلاس آینده احتمالاً بر اطمینان از رعایت قوانین بینالمللی و ایجاد تدابیر حفاظتی در برابر سیستمهای سلاح خودران که میتوانند تصمیمات حیاتی را بدون نظارت انسانی اتخاذ کنند، متمرکز خواهد شد. هدف REAIM 2024 ایجاد یک برنامه اقدام منسجم است که موانع و اصول بنیادی استفاده اخلاقی از هوش مصنوعی در زمینههای نظامی را مشخص کند.
در حالی که مشارکت قوی است و حدود 2000 نفر از بخشهای مختلف ثبت نام کردهاند، هنوز مشخص نیست که چند کشور از پروتکلهای پیشنهادی در مورد کاربردهای نظامی هوش مصنوعی حمایت خواهند کرد. به موازات این، کشورهای عضو سازمان ملل از سال 1983 در حال بحث درباره محدودیتهای مربوط به برخی سلاحهای خودکار تحت قوانین انسانی موجود بودهاند. با ادامه این گفتگو، امید است که پتانسیل انقلابی هوش مصنوعی بتواند به طور مسئولانه برای تقویت امنیت و ثبات جهانی به کار گرفته شود.
اجلاس جهانی آینده برای رسیدگی به استفاده نظامی از هوش مصنوعی در سال 2024 در آستانه حل برخی از مهمترین مسائل مربوط به تلاقی هوش مصنوعی و عملیات دفاعی است. این اجلاس که قرار است در شهر نیویورک برگزار شود، رهبران نظامی، سیاستگذاران، کارشناسان فناوری و اخلاقدانان را گرد هم میآورد تا درباره پیامدهای عمیق هوش مصنوعی در جنگ گفتگو کنند.
سؤالات کلیدی به عنوان ذینفعان برای اجلاس آماده میشوند:
1. راهنماییهای اخلاقی برای بهکارگیری هوش مصنوعی در محیطهای نظامی چیست؟
– پاسخ: ایجاد راهنماهای اخلاقی جامع بسیار مهم است. کارشناسان از چارچوبهایی حمایت میکنند که مسئولیتپذیری، شفافیت و نظارت انسانی را در عملیات هوش مصنوعی تضمین کند تا از تصمیمگیریهای زندگی و مرگ توسط سیستمهای خودران جلوگیری شود.
2. چگونه میتوان همکاری بینالمللی را در زمینه تنظیم هوش مصنوعی نظامی تقویت کرد؟
– پاسخ: کشورها باید در گفتگوهای همکاریکننده شرکت کنند، مشابه معاهدات موجود درباره کنترل تسلیحات. ایجاد توافق چندجانبه میتواند به تسهیل اشتراکگذاری دانش و ایجاد هنجارها برای استفاده از هوش مصنوعی در سناریوهای درگیری کمک کند.
3. چه اقداماتی میتوان انجام داد تا از یک رقابت تسلیحاتی هوش مصنوعی جلوگیری شود؟
– پاسخ: علاوه بر چارچوبهای قانونی، ترویج شفافیت در مورد کاربردهای نظامی هوش مصنوعی میتواند به کاهش سناریوی رقابت تسلیحاتی کمک کند و به کشورها امکان اعتماد به نیتها و قابلیتهای یکدیگر را بدهد.
در این پسزمینه، چندین چالش و جنجال در حال ظهور است:
– سیستمهای سلاح خودران (AWS): پتانسیل سیستمهای خودران برای کار بدون نظارت انسانی نگرانیهایی درباره مسئولیت قانونی و پیامدهای اخلاقی در میدان جنگ به وجود میآورد. منتقدان معتقدند که چنین فناوریهایی میتوانند منجر به عواقب ناپیشبینی شده و افزایش تلفات غیرنظامی شوند.
– نگرانیهای حریم خصوصی و امنیت داده: ادغام هوش مصنوعی در کاربردهای نظامی نیاز به مقادیر زیادی داده دارد که نگرانیهایی درباره حفاظت از داده و احتمال جنگ سایبری را به همراه دارد. امنیت سیستمهای هوش مصنوعی خود نیز مورد بحث است، زیرا دشمنان میتوانند از آسیبپذیریها سوءاستفاده کنند.
با وجود این چالشها، مزایای قابل توجهی برای ادغام هوش مصنوعی در دفاع وجود دارد:
– افزایش کارایی: هوش مصنوعی توانایی بهینهسازی عملیات، بهبود فرآیندهای تصمیمگیری و تقویت تحلیلهای اطلاعاتی را دارد که منجر به استراتژیهای نظامی مؤثرتر میشود.
– کاهش خطر برای پرسنل: با بهکارگیری سیستمهای مبتنی بر هوش مصنوعی در موقعیتهای خطرناک، نیروهای نظامی میتوانند ریسک را برای سربازان انسانی کاهش دهند و تلفات در درگیریهای خط مقدم را به حداقل برسانند.
برعکس، معایب استفاده از هوش مصنوعی در زمینههای نظامی نمیتوانند نادیده گرفته شوند:
– معضلات اخلاقی: پتانسیل ماشینها برای اتخاذ تصمیمات زندگی و مرگ سؤالات اخلاقی عمیقی را به وجود میآورد که جامعه هنوز به شکل رضایتبخشی به آنها پاسخ نداده است.
– وابستگی به فناوری: افزایش وابستگی به هوش مصنوعی میتواند به آسیبپذیریهای استراتژیک منجر شود، به ویژه اگر دشمنان قابلیتهای ضد هوش مصنوعی توسعه دهند.
با نزدیک شدن به اجلاس، جامعه جهانی با دقت نظارهگر است تا ببیند آیا REAIM 2024 میتواند چارچوبهای قابل اجرایی برای مقابله با این چالشهای چندبعدی ایجاد کند یا خیر. قمار بزرگ است، زیرا آینده تعامل نظامی و امنیت بینالمللی ممکن است به تصمیمات اتخاذ شده در این بحثها وابسته باشد.
برای اطلاعات بیشتر در مورد هوش مصنوعی و کاربردهای نظامی، به ناتو و سازمان ملل مراجعه کنید.