نیروی هوایی آمریکا با موفقیت یک جنگ هوایی بین یک خلبان انسانی و یک خلبان هوش مصنوعی (AI) با استفاده از همان نوع هواپیما تست کرده است. Jet آزمایشی رنگ نارنجی، ابتدا یک ف-16 بود قبل از اصلاحات و اکنون به نام X-62A شناخته میشود، در طول این آزمایش تحت کنترل کامل AI بود. مخالف تحقیقات قبلی AI که از شبیهسازیها استفاده کردند، واقعیت کنترل یک جت جنگنده واقعی چالشهای جدیدی را مطرح کرد که بر اهمیت اشتباهات در محیطهای مجازی حاضر نیستند.
ضرورت هماهنگی AI با ارزشهای انسانی برای اعتماد و دوستی میان همکاران مورد تاکید قرار گرفت. پیچیدهترین و واقعگرایانهترین سناریوی آموزش یک جنگ هوایی است – مبارزه هوانوردی در فواصل نزدیک. اعلام اخیر توسط نیروهای مسلح آمریکا میلادی بر از پیشرفت ویژه AI و خلبان انسانی درگیر شدن در نبرد بود که به ترتیب یک ف-16 و X-62A را کنترل میکردند.
هرچند نتیجه این نبرد بیان نشده بود، اما توجه داشته شد که این ملاقات به طور مساوی بود. هر دو هواپیما به فاصله 600 متر از یکدیگر حرکت کردند در حین حرکت با سرعت تا 2,000 کیلومتر در ساعت، که نشانگر نبرد با سرعتهای فوق صوتی بود.
دور از تمرکز بر تعیین برنده، تمرکز بر عملکرد AI از نظر ایمنی و رعایت دستورالعملهایی بود که خلبانان انسانی دنبال میکنند. نیروی هوایی آمریکا این را فقط اولین گام در یک سری آزمایشها تلقی میکند که هدف آن، توسعه همکاران هوش مصنوعی است که بتوانند در میدان نبرد قابل اعتماد باشند.
آزمایش موفق یک خلبان AI در یک جنگ هوایی شبیهسازی شده با یک خلبان انسانی، پیامدهای مهمی برای آینده مبارزههای هوایی و نقش هوش مصنوعی در عملیات نظامی دارد. زیر مجموعه چیزهای مهم، سوالات کلیدی، چالشها، اختلافات، مزایا و معایب مرتبط با این موضوع شامل موارد زیر است:
مشخصات مربوط:
– تستها و تحقیقات مشابه توسط سایر قدرتهای نظامی دیگر در حال انجام است، تاکید بر روی دویدن جهانی برای برتری هوش مصنوعی در فناوری دفاعی.
– سیستم AI استفاده شده در X-62A برای ادغام با اویونیکس جت، سیستمهای کنترل و حسگرها به منظور تصمیمگیریهای زمانواقعی در سناریوهای پیچیده مبارزات هوایی عمل میکند.
– این توسعه قسمتی از تلاش نهاد دفاع برای اجرای کمپین بعدی AI است، که اهدافش افزودن استفاده از AI در دهانات نظامی مختلف میباشد.
سوالات و پاسخهای کلیدی:
– Q: چرا این امر ضروری است که AI ارزشهای انسانی را رعایت کند؟
– A: AI باید با ارزشهای انسانی هماهنگ شود تا استفاده اخلاقی از نیرو تضمین شود، اعتماد عمومی حفظ شود و پیامدهای غیرقصدی در حین عملیات نظامی جلوگیری شود.
– Q: چه تبعاتی از فناوری AI در مبارزات هوایی وجود دارد؟
– A: معرفی خلبانان AI میتواند قابلیتهای خلبانان انسانی را گسترش دهد، خطر برای جان انسانها را کم کرده و احتمالاً زمانها و تواناییهای تصمیمگیری برتری ارائه دهد.
چالشها و مناقشات کلیدی:
– باید سیستمهای AI برای عمل در چارچوب قوانین مبارزه و قوانین بینالمللی طراحی شوند تا از اعمال غیرقانونی جلوگیری شود.
– خطر بهرهبرداری یا هک کردن به سیستمهای AI وجود دارد که ممکن است منجر به تبدیل دارایی دوستانه به یک خطر شود.
– استفاده از اسلحههای خودمخملی موضوعی مورد اختلاف است، با مباحث اخلاقی درباره فرآیند تصمیمگیری در انتخاب از دست دادن جان انسانها.
مزایا:
– خلبانان AI میتوانند به خطر نیز کوتاه تر، باعث کاهش احتمال تلفات در سناریوهای مبارزات بالاریسک پردازند.
– سیستمهای AI قادر به پردازش حجم عظیمی از دادهها نسبت به انسانها هستند که منجر به تصمیمگیری سریعتر و شاید دقیقتر میشود.
– خودکاری در مبارزههای هوایی اجازه میدانیابی بلند مدت و کاهش تأثیرات گیچ انسانها را میدهد.
معایب:
– AI، اگرچه سریع و کارآمد است، داوری انسانی را ندارد و ممکن است نتواند با سناریوهای نویل یا مبهم به همان تهدید مهارت یک خلبان عالی انسانی عمل کند.
– توسعه و ادغام چنین AIی پیشرفتشدهای هزینههای بالا و نیازهای فنی پیچیدهای دارد.
– وابستگی به AI ممکن است منجر به آسیب پذیری شود اگر طی عملیات اساسی سیستمها قرار گیرد یا خراب شود.
اطلاعات قابل اعتماد و بهروز درباره پیشرفتهای نظامی و هوش مصنوعی در دفاع را میتوان معمولاً در دامنههای معتبر مانند وزارت دفاع آمریکا (defense.gov) یا سایت رسمی نیروی هوایی آمریکا (af.mil) پیدا کرد. لطفا توجه داشته باشید که در حالی که آدرسهای اینترنتی به دامنههای نظامی یا دولتی معمولاً معتبر تلقی میشوند، لینکهای فردی برای صحت باید بررسی شوند.
The source of the article is from the blog lisboatv.pt