نقش هوش مصنوعی در جنگهای مدرن، تهدیدات جدیدی را پدید آورده است
در چشمانداز متغیر جنگ، سامانههای سلاحهای خودران که توسط هوش مصنوعی (AI) قدرت داده شدهاند، یک نگرانی فوری برای امنیت جهانی میباشند. پروفسور کارل هانز بلاسیوس، یک استاد بازنشسته در علوم رایانه که در زمینه هوش مصنوعی تخصص دارد، نگرانی خود را در خصوص این که چنین فناوریها ممکن است سیکلهای اسکالهبا وسیعی را فراخوانند که فرا از کنترل انسان بیرون بروند، بیان میکند.
پروفسور بلاسیوس مزایای خودکاری در فناوری را ذکر میکند، مانند پتانسیل خودروهای هوشمند و رباتها در محیطهای خطرناک. با این حال، او بر خطرات جدی مربوط به سلاحهای خودکار طراحی شده برای نابودی تأکید میکند. او اظهار میکند که خودکار کردن عمل کشتن غیرقابل قبول است و از پیشرفتهای ویژه خطرناک، از جمله مربوط به سلاحهای هستهای، هشدار میدهد.
با استناد به الگوریتمهای معاملات فرکانس بالا در دنیای مالی، که باعث فروپاشیهای ناگهانی بازار معروف به “فلش کرش” شدهاند، پروفسور بلاسیوس هشدار میدهد که سلاحهای مبتنی بر هوش مصنوعی ممکن است به طور مشابه در تعاملات غیر قابل پیشبینی شرکت کرده و منجر به جنگهای فلش سریع و غیرقابل کنترل شوند. این سناریوها آیندهای را به تصویر میکشند که سیستمهای خودکار در سرعتهای فراتر از توانایی انسان برای پاسخگویی به جنگ بپردازند و نتیجهگیری از برخورد و پادآورد موجب افزایش عداوت و پادعالی در جنگ شوند.
اهمیت استفاده موجود از هوش مصنوعی در تعیین هدف نظامی، مانند استفاده اسراییل برای شناسایی جنگجویان حماس و مکانهای آنها، را برجسته میکند و ابراز نگرانی در خصوص کمبود تأیید انسانی در این موارد، که در نهایت ممکن است منجر به تصمیمگیری ماشینی برای این موضوع شود که چه کسی زنده بماند و چه کسی بمیرد، شامل غیرنظامیان.
بلاسیوس در پایان به نیاز به هوش مصنوعی در مدیریت پیچیدگی بینظیر و فشار زمانی در عملیات نظامی مدرن اشاره میکند. با این حال، او مشکلاتی که رویش میکنند را به عنوان مسائل چالشبرانگیز توجه میکند، بر اساس ظرفیتهای آنها برای دور زدن نظر انسان و ضمن آن مشکلات اخلاقی مربوط به آنها را تأیید میکند.
چالشها و اختلافات سلاحهای خودکار مبتنی بر هوش مصنوعی
سلاحهای خودکار مبتنی بر هوش مصنوعی مجموعه ای از سوالات و چالشهای پیچیده ای را دارند که در بخشهای مختلف از جمله نظامی، سیاسی، اخلاقی و حقوقی به اختلاف انجامیدهاند. در زیر چندین چالش کلیدی و اختلافات ذیل ذکر شده است:
مسئولیت پذیری: یکی از مسائل اصلی سامانههای سلاحهای خودکار، مسئله این است که در صورت وقوع نابخردانه نابود کردن و یا مرگ نادرست، کدام کسی مسئول است. بدون دستورالعمل های واضح، اختصاص مسئولیت برای اعمال انجام شده توسط هوش مصنوعی ممکن است چالش برانگیز باشد.
موارد اخلاقی: استفاده از هوش مصنوعی در جنگ مسائلی از حیث اخلاق خلقتی درباره تخفیف ارزش حیات انسانی برمیآورد. یک ماشین ارزش حیات انسانی را نمیداند و نمیتواند، که مسائلی ایجاد میکند که استفاده آنها در جنگ ممکن است منجر به میل بیشتر به جنگ و از دست دادن بیشتر حیات شود.
آب بازیگری سیاسی: به طور سنتی، تصمیم برای شروع به جنگ تصمیمی سیاسی است که توسط نمایندگان یا رهبران انتخاب میشود. با سیستمهای مبتنی بر هوش مصنوعی که میتواند به تهدیدات در میلیثانیه واکنش دهد، ترس وجود دارد که فرآیند سیاسی زیر دستگیر گرفته شود و جنگها بدون فرآیند دموکراتیک به پایان برسند.
تشدید نظامی: استفاده از سلاحهای خودکار میتواند به معنای ایجاد یک دو گانه سلاح شود، زیرا کشورها تلاش میکنند تا نسبت به قابلیتهای دیگران عقب نمانند. این میتواند به افزایش تنشهای نظامی و ناپایداری در جهان منجر شود.
خطر خرابی: سیستمهای مبتنی بر هوش مصنوعی به خرابیهای فنی و خرابیها حساس هستند. در صورت بروز خلل نرم افزاری یا حادثه هک، سلاحهای خودکار ممکن است در رفتارهای آندسته یا غیرپیشبینی شده شرکت کنند که ممکن است به تشدید خروج به نبرد منجر شود.
مزایا و معایب
مزایا:
– افزایش کارآیی و سرعت در پاسخ به تهدیدات
– کاهش خطر برای سربازان انسانی در شرایط نبرد
– دقت در هدفگیری که ممکن است خسارت جانبی را در زمینههای خاصی کاهش دهد
– عملکرد در محیطهایی که برای انسانها خطرناک است
معایب:
– بالا رفتن احتمال از دست رفتن مسئولیت وکوچک شدن نظر انسانی
– مسائل اخلاقی در ارتباط با ارزش زندگی انسانی و تصمیمگیری در استفاده از نیروی کشنده
– احتمال بروز خرابیها یا تحت تأثیر قرارگرفتن از سوی دشمنان
– ریسک افزایش و گسترش تضادهای نظامی (جنگهای فلش)
– گیجی در برنامه نویسی هوش مصنوعی برای مطابقت با حقوق بینالمللی انساندوستانه
سوالات مهم:
1. کدام شخص مسئول است برای اعمالی که توسط یک سامانه سلاحهای خودکار انجام شدهاست؟
2. چگونه میتوان مطابقت به جنگ مبتنی بر هوش مصنوعی را با حقوق بینالمللی انساندوستانه حفظ کرد؟
3. چه مکانیزمهایی میتوانند برای اطمینان از نظارت انسانی مناسب بر سلاحهای خودکار اعمال شوند؟
4. چگونه جامعه بینالمللی میتواند از گسترش و شتاب دهی به سلاحهای خودکار مبتنی بر هوش مصنوعی جلوگیری کند؟
با ادامه گفتگو درباره سلاحهای خودکار مبتنی بر هوش مصنوعی، سازمان ملل متحد به عنوان یک پلتفرم محسوب میشود که در آن این چالشها بحث میشوند و تلاش برای یک کنسانس جهانی در خصوص تنظیم و کنترل چنین سلاحهایی انجام میگیرد.
در کل، در حالی که مزایای احتمالی در تقریب هوش مصنوعی در عملیات نظامی وجود دارد، معایب و ریسکهای موجود نیقد اهمیت نیازمند آن هستند که در سطحهای بینالمللی با دقت مورد بررسی و تنظیم قرار گرفته شوند. تلقای “جنگهای فلش” به عنوان یک یادآور تلخ از پتانسیل نتایج فرارویی از استفاده از هوش مصنوعی در جنگ بدون مراقبتها و بررسیهای لازم است.
The source of the article is from the blog trebujena.net