رهبران گروه تأثیرگذار G7 که نمایندگی اقتصادهای اصلی جهان را بر عهده دارند، برای بررسی مسائل مهم در زمینه تولید و کاربرد هوش مصنوعی (AI) در حیطه دفاع آماده میشوند. در یک جلسه که قرار است از 13 تا 15 ژوئن در ایتالیا برگزار شود، انتظار میرود که یک توافق جلوه کند که بر تأکید بر لزوم یک رویکرد مسئولانه و انسانمدار در ارتباط با AI در مواقع نظامی تأکید دارد.
همانطور که نزدیکی اجلاس G7 نزدیک شده است، اطلاعات از منابع دیپلماتیک به سطح آورده شدهاند که بیانیه مشترکی احتمالی است که اهمیت تأسیس کاربرد AI را که با استانداردهای حقوق بینالمللی انساندوستانه هماهنگی دارد، برجسته میکند. علاوه بر این، میپیشبینی شود که مستند آموزه از اجراگرهای مشترک دعوت کننده به اجرای عام و مشترکی از استانداردهایی که حکومت از مسلحها وقایع باید.
این اتحادیه از کشورها همچنین قصد دارد ترویج AI امن و قابل اعتماد را در حالی که سعی در تقویت تحول دیجیتال مرکزی بر انسان را دنبال میکند. تلاشهای بیشتر شامل توسعه طرح عمل در زمینه بخش کاری است، هدف از آن استفاده از AI برای افزایش بهرهوری و کیفیت اشتغال است.
اروپا از پخش گسترده اطلاعات غلط از طریق AI نگرانی عمیقی را بیان کرده و مناظرهای منظورها قانونی را در ماه مه اجرا کرده است. ژاپن همچنین بحثهایی را در مورد کنترلهای قانونی به ویژه هدف گروههایی که سرمایهگذاری قابل توجهی در توسعه AI انجام میدهند، آغاز کرده است. بنابراین، پیامدهای اعلام مشترک G7 انتظار میرود تأثیر قابل توجهی برای بحثها و تنظیمات بینالمللی آینده داشته باشد.
بیانویه پیشین AI را بهعنوان یک ابزار حیاتی برای توسعه اجتماعی-اقتصادی نگریسته و به اجتماع جهانی توصیه میکند که بر هماهنگ با قوانین بینالمللی توجه داشته باشد و اعتبارات انساندوستانه را تأکید دارد. علاوه بر این، نگرانیها به طور خاص نسبت به دخالتهای پتانسیلی AI در فرآیندهای قضایی مطرح شده است، با فراخوانی برای تضمین اینکه استفاده از AI تصمیمگیری و استقلال قضات را مختل نکند.
موضوع “رهبران G7 برای طراحی رویکردهای مسئولانه از زمانبندی هوش مصنوعی در زمینه نظامی” چندین سوال و چالش مهمی در ارتباط با توسعه و استفاده از هوش مصنوعی در تنظیمهای نظامی پیش میآورد:
1. چگونه میتوان استانداردهای بینالمللی حقوق بشر را بهطور موثر در سیستمهای AI یکپارچه کرد؟
سیستمهای AI که در زمینههای نظامی استفاده میشوند باید به اصول حقوق بینالمللی پایبند باشند تا اطمینان حاصل شود که زیانی هرج و مرج و یا تاثیر ناشی از خارج از رزمندگان در نظر گرفته نشود. یکی از چالشهای فنی و اخلاقی مهم این است که این قوانین در میان الگوریتمهای AI یکپارچه شود.
2. چه عواقب ممکنی دارد استفاده از AI در عملیات نظامی؟
خطرات شامل امکان تصمیمات غلط توسط سیستمهای AI، هک یا خرابکاری آنها، منجر به نتایج ناخواسته در شرایط تضادی میشود. نیز اینجا بخوفی بودای است که AI با فراهم کردن تصمیمگیری و اجرای سریع، جنگ را تشدید کند.
3. چه تدابیری برای پیشگیری از مسابقه تسلیحاتی AI وجود دارد؟
توسعه توافق بینالمللی و مقررات درباره ساخت و استفاده از AI در عملیات نظامی بسیار حیاتی است تا از رقابت تسلیحاتی بینالمللی جلوگیری شود. همکاری بین کشورهای G7 ممکن است نمونهای برای سایر کشورها قرار دهد.
4. چگونه مسئولیتپذیری برای اعمالی که توسط AI انجام میشوند را تضمین کنیم؟
اختصاص مسئولیت برای تصمیماتی که توسط سیستمهای AI گرفته میشود، پیچیده است. سیاستها و چارچوبهای واضح باید برای حل مسائل مربوط به مسئولیت تعیین شود.
چالشهای کلیدی:
– پیامدهای اخلاقی: ادغام AI در عملیات نظامی مسائل اخلاقی ژرفی را ایجاد میکند، نظیر سوال از این که آیا در تصمیمگیریهای زندگی و مرگ بدون مداخله انسانی باید قرار گیرد.
– قابلیت اعتماد فناوری: اطمینان حاصل کردن از اینکه سیستمهای AI قابل اطمینان هستند و قابل گمراه شدن یا هک نیستند یک نقطه تکنیکی مهم است.
– توافق بینالمللی: یافتن نقطهی مشترک میان کشورهای مختلف با دیدگاهها و سیاستهای متفاوت در مورد AI نظامی یک تلاش دیپلماتیک پیچیده است.
جدلها:
– سلاحهای خودکار: استفاده از AI در ایجاد سیستمهای سلاحهای خودکار به شدت مورد اختلاف است، با توجه به درخواستهای زیاد برای ممنوعیت کامل از چنین فناوریهایی.
– نظارت: AI میتواند برای ایجاد سیستمهای پیشرفتهی نظارتی استفاده شود که نگرانیها در مورد حریم خصوصی و حقوق انسانی را برانگیزد.
مزایا:
– کارآیی: AI میتواند اطلاعات را سریعتر از انسانها پردازش کرده و تصمیمها را بگیرد که بالاتر از مواقعیتهای نظامی ممکن است بهبود بخشد.
– دقت: AI امکان دقت بیشتری در عملیات نظامی را دارد که ممکن است خسارات موازی را کاهش دهد.
– تقویتکننده نیرو: AI میتواند ظرفیتهای نظامی را تقویت کند و امکان استفاده مؤثرتر از منابع را فراهم آورد.
معایب:
– پیشبینی ناپذیری: AI ممکن است بهویژه در محیطهای پیچیده بهطور ناپیشبینی عمل کند.
– وابستگی: بر اعتماد زیاد به AI ممکن است اگر فناوری شکست بخورد، عملیات نظامی را آسیبپذیر کند.
– نگرانیهای اخلاقی: ممکن است پیامدهای اخلاقی برای استفاده از AI در جنگجویی وجود داشته باشد، مانند بیانسانی سازی تضاد و کاهش مسئولیت.
برای بهروزرسانیهایی از جلسات G7 و بیانیههای آنها در مورد AI و دیگر موضوعات، میتوانید به وبسایتهای رسمی کشورهای مربوطه مراجعه کنید یا به دامین اصلی سازمانهای بینالمللی مانند سازمان ملل متحد در United Nations و کمیتهی بینالمللی صلیب سرخ در ICRC، که در مورد قوانین بینالمللی در امور انسانی و AI بحث مینمایند، مراجعه کنید.
The source of the article is from the blog krama.net