معاون وزیر تبدیلی دیجیتال اوکراین، الکسی بورنیاکوف، اخیراً در یک رویداد ناتو در لهستان تاکید کرد که توسعه مداوم پهپادهای نظامی مجهز به هوش مصنوعی که توانایی شناسایی اهداف بر اساس تشخیص صدا را دارند، بسیار مهم است. بورنیاکوف توضیح داد که این پهپادها در حال حاضر به عنوان نمونههای آزمایشی در اوکراین بوده و از پیشرفتهای چشمگیر در حوزه هوش مصنوعی که برای عملکرد آنها ضروری است، بهره مند هستند. قابلیت فناوری دید کامپیوتری که از پیش ثابت و عملی است، محوری در این پهپادهاست.
پیشنهاد سیستمهای کامپیوتری برای اتخاذ تصمیمات تصمیم مرگ و زندگی موجب بحث در میان متحدان اوکراین شده است. اگرچه ناتو بر اصول اخلاقی برای هوش مصنوعی عمل کرده و بر اهمیت مشارکت انسان در استفاده از نیروهای مهلک تأکید میکند، این پیشرفتهای ژرف مسائل پیچیدهای را برای بحث قرار داده است. دیوید ون ویل، معاون دبیرکل ناتو، در خصوص استفاده از هوش مصنوعی، بر اهمیت استفادههای ایمن آن در سناریوهای غیر مهلک تأکید کرد که از جمله تجزیه تحلیل تصاویر ماهوارهای برای پیگیری هواپیماها و ایستگاههای سوخت روسیه است که خطرات از دست دادن جان حداقلی دارند.
علاوه بر این، ناتو قصد دارد که استراتژی هوش مصنوعی خود را در نشست 70 سالگرد آینده خود در واشنگتن دیسی بهروزرسانی کند. بازنگری استراتژی سازمان نشاندهنده چشمانداز تکاملی هوش مصنوعی در دفاع است. فریادهایی از جانب غرب برای ایجاد چارچوبهای حقوقی بینالمللی معترف به مراتبی برای تنظیم سلاحهای هوش مصنوعی، به گزارش بلومبرگ، به اهمیت فوری نیاز به کنترلهای رسمی میپردازند. گروههای فعالیتهای مدنی مانند “توقف رباتهای قاتل” اصرار دارند که اصول و تدابیر سیاسی بدون قابلیت اجرای حقوقی کافی برای تحقق چالشهای موجودی در حضور سلاحهای خودکار هوش مصنوعی کافی نیستند.
هنگامی که هوش مصنوعی هر جنبهای از جنگ را تحت تأثیر قرار میدهد — که متأسفانه اوکراین آن را اولین دست میآورد —کاربردها و مقررات آن نیازمند بررسی دقیق هستند. محققان بازار رویهای متفاوتی از هوش مصنوعی در حوزه نظامی را نشان میدهند. پیامدهای این فناوریها در جنگ، تنظیمات آنها در کشورهای پیشرو جهان، و تجارب عملی اوکراین در میدان جنگ در مقاله “تنظیم هوش مصنوعی در حوزه نظامی: محدودیت یا تشویق؟” نوشته کارشناس حقوق و وکیل سرگی کوزیاکوف در ZN.UA مورد بررسی قرار گرفتهاند.
همانطور که فناوری هوش مصنوعی بهصورت سریع پیشرفت میکند، یک سری دلیمههای اخلاقی و سوالات استراتژیکی وجود دارد که باید مورد بررسی قرار بگیرد. در زیر چند نکته کلیدی آورده شده است که ممکن است در مقاله مورد اشاره قرار نگرفته باشند، اما ارتباطی با موضوع “هوش مصنوعی در جنگ: دلیل اخلاقی و چشمانداز ناتو” دارند.
سوالات اخلاقی مهم:
1. سطح خودمختاری که سیستمهای هوش مصنوعی در میدان جنگ باید داشته باشند چیست؟
2. چطور میتوان اطمینان از مسئولیت در استفاده از هوش مصنوعی در تصمیمگیریهای مهلک داشت؟
3. چه اقداماتی میتوان انجام داد تا از سقوط فناوریهای جنگ هوش مصنوعی به دست اشتباهی یا سوءاستفاده جلوگیری شود؟
4. چگونه میتوان اطمینان از رعایت حقوق بینالمللی انسانی در استفاده از هوش مصنوعی در عملیات نظامی حاصل کرد؟
چالشها و اختلافات کلیدی:
– توسعه هوش مصنوعی که بتواند صحیح بین نیروهای نظامی و غیرنظامی در محیطهای تداخلی تفاوت قائل شود.
– خطر یک دواندازی سلاحهای هوش مصنوعی بین امم که به تشدید تنشها و سوءاستفادههای ممکن منجر شود.
– امکان اختلال در سیستمهای هوش مصنوعی یا قرص خوردن آنها که باعث صدمات ناخواسته میشود.
– حل “شکاف مسئولیت” موسوم به آنجا که ممکن است کاملاً مشخص نشود که برای اعمال هوش مصنوعی در میدان جنگ — توسعهدهندگان، اپراتورها یا خود سیستم هوش مصنوعی — مسئول است.
مزایا:
– هوش مصنوعی قادر به پردازش حجم عظیمی از دادهها به سرعت بیشتر از انسانها است که بهبود آگاهی از وضعیت و کارایی تصمیمگیری را ارائه میدهد.
– فناوری هوش مصنوعی پتانسیل کاهش تلفات نظامی را دارد با انجام وظایف خطرناکی که معمولاً خطراتی برای جان انسانها دارد.
– برنامههای غیر مهلک هوش مصنوعی، مانند بهینهسازی لجستیک و نظارت، میتوانند عملیات نظامی را بهبود بخشند و همزمان با کاستن خطر از واقعه از دست رفتن جان تقویت کنند.
معایب:
– اعتماد بیش از حد به هوش مصنوعی میتواند منجر به کاهش نظارت انسانی و در صورت خطای سیستمی عواقب بالقوهای ناگوار داشته باشد.
– توسعه سلاحانههای خودکار مطرح مسائلی راجع به پیامدهای اخلاقی ایجاد میکند که مربوط به ماشینها برداشتن و زندگی انسانی میشود.
– فناوری میتواند منجر به ایجاد اشکالوارهایی از جنگ شود که پیشبینی نشده و سخت به کنترل باشد.
برای کسب اطلاعات بیشتر درباره چشمانداز و سیاستهای ناتو درباره هوش مصنوعی در جنگ، علاقهمندان میتوانند به وبسایت رسمی ناتو به نشانی NATO مراجعه کنند. علاوه بر این، افرادی که در حمایت یا بحثهای اخلاقی در مورد سیستمهای سلاحهای خودکار شرکت دارند، میتوانند به وبسایت حمایت از مبارزه با رباتهای قاتل به نشانی Stop Killer Robots، که بر روی ممنوعیتهای پیشگیرانه و تنظیمات چنین سیستمهایی تمرکز دارد، مراجعه کنند.
توجه داشته باشید که هرچند این حقایق و اظهارنظرها به موضوع مربوطه ارتباط دارند، اما در مقاله اصلی درج نشدهاند.
The source of the article is from the blog exofeed.nl