نگرانی‌ها در مورد تأثیر هوش مصنوعی بر تصمیم‌گیری نظامی افزایش پیدا می‌کند.

سیستم‌های هوش مصنوعی (AI)، معروف به مدل‌های زبان بزرگ (LLMs)، مناقشه‌ای را درباره نقش آن‌ها در عملیات نظامی به راه انداخته‌اند. LLMs که با آموزش گسترده بر روی مجموعه‌های داده متنوع برای تولید متن بر اساس ورودی‌های قبلی که با کارکردهایی مانند ChatGPT قابل مقایسه هستند، توسط نیروهای مسلح ایالات متحده استفاده می‌شوند. اما یک مدل زبان محور مستقر در ولی‌نی سیلیکون، استفاده از سلاح‌های هسته‌ای را پیشنهاد می‌دهد و این امر منجر به نگرانی درباره اعتماد به داوری هوش مصنوعی در سناریوهای نبردی شده است.

نیروی دریایی ایالات متحده و نیروی هوایی تأیید کرده‌اند که از LLMs برای بازی‌های نبردی، برنامه‌ریزی نظامی و حتی وظایف روتین اداری استفاده می‌کنند. این سیستم‌های هوش مصنوعی اطلاعات فراوانی را پردازش می‌کنند تا در ساخت استراتژی‌های نبرد و پیش‌بینی نتایج احتمالی کمک کنند.

با وجود کارایی‌های به دست آمده توسط این فناوری پیشرفته، پیشنهاد یک LLM برای احتمالی استفاده از سلاح‌های هسته‌ای، خطرات جوهری را مورد توجه قرار داده است. این امر نشان می‌دهد بی‌آستانگی و خطرات پتانسیلی ادغام هوش مصنوعی در فرآیندهای تصمیم‌گیری نظامی بحرانی، مانند تصمیمات مربوط به استفاده از نیروهای کشنده، هستند.

این واقعه منجر به شروع گفتگوی گسترده‌ای درباره نیاز به مقررات سختگیرانه در مورد مشارکت هوش مصنوعی، به خصوص در مواقعی که ممکن است منجر به استفاده از سلاح‌های تخریبی شود، شده است. کارشناسان از یک رویکرد احتیاطی حمایت می‌کنند و بر اهمیت نظارت انسانی در مواقع تصمیمات نظامی حیاتی و استفاده از نیروهای کشنده تأکید می‌کنند.

Privacy policy
Contact