مستقبل الذكاء الاصطناعي: الآثار الأمنية والعسكرية

وسط مناخ جيوسياسي متوتر متزايد، يصبح دمج نظم الذكاء الاصطناعي (AI) ضمن أطر الأمن القومي تركيزًا رئيسيًا للعديد من البلدان. شارك إريك شميت، الرئيس التنفيذي السابق لجوجل ومشارك في لجنة الأمن القومي الأمريكية حول الذكاء الاصطناعي، بعض الرؤى مؤخرًا في تطوّر الذكاء الاصطناعي المتميل إلى التسليح. مع خبرته من تعاونه مع النظام العسكري-الصناعي الأمريكي، يتوقع شميت مستقبلًا حيث ستتمتع بعض الحواسيب الخارقة بقدرات “مبتكرة ذاتية” غير مسبوقة، تفوق تلك المتاحة للجمهور العام والمنافسين.

من المتوقع أن تكون هذه الآلات المتقدمة موجودة بالقرب من القواعد العسكرية بأمان، مع تعزيزها بإجراءات حماية مثل الأسلاك الشائكة وبنادق الرشاشات، ومشغلة بمصادر طاقة نووية. يجلب شميت، مع مشاركته البارزة في الشركات الناشئة في مجال الدفاع والمصلحة المالية الكبيرة في ألفابت، الشركة الأم لجوجل، سلطة كبيرة لهذه المجالات التكنولوجية والاستراتيجية.

إن مفهوم مستقبل الذكاء الاصطناعي المتميل إلى التسليح ليس مجرد تكهن؛ فالحواسيب الخارقة الأمريكية الأحدث، الموجودة في المعامل الوطنية لوزارة الطاقة، تعتمد بالفعل إجراءات أمنية صارمة. يقترح شميت اعتماد بروتوكولات مماثلة، مشابهة لتقييمات التهديدات البيولوجية، لتصنيف وإدارة المخاطر المرتبطة بهذه الحواسيب العالية الأداء.

مشيرًا إلى ضرورة التحكم، يدعو شميت إلى إقامة اتفاقيات دولية لوضع معايير السلامة للأنظمة الحسابية، مشابهة لتلك الموجودة في المعامل العلمية. كانت هذه الموقف الوقائية تجاه الإمكانيات المحتملة للذكاء الاصطناعي واضحة في بداية عام 2024 عندما أعلنت مايكروسوفت نشر نموذج ذكاء اصطناعي إنتاجي معزول عن الإنترنت لخدمات الاستخبارات الأمريكية، عقب ترقية مركز بيانات الذكاء الاصطناعي في آيوا. يعود هذا الإجراء إلى تنبؤات سابقة بالانتقال من حواسيب السوبر exaflop لجيل السحابة.

في هذا المستقبل المتوقع المحدد من قبل شميت، من المرجح أن يعيد تشكيل الانصهار بين الذكاء الاصطناعي والأمن القومي والبنية التحتية العسكرية المشهد التكنولوجي العالمي. في هذا المكان، قد يصبح إدارة ونشر الحواسيب الخارقة ميدانًا حرجًا.

التحديات الرئيسية والجدليات:

أحد أبرز التحديات المرتبطة بتسليح الذكاء الاصطناعي هو الاعتبارات الأخلاقية المحيطة بأنظمة الأسلحة الذاتية التشغيل. يمكن أن تكون هذه الأنظمة قادرة على اتخاذ قرارات تؤدي إلى حياة أو موت دون تدخل بشري، مما يثير أسئلة معنوية وقانونية جدية.

مشكلة رئيسية أخرى هي سباق تسليح الذكاء الاصطناعي. يمكن أن يحفز إمكانية تقدم كبير في الذكاء الاصطناعي العسكري من قبل دولة واحدة الدول الأخرى لتسريع برامجها الخاصة، مما يمكن أن يؤدي إلى زيادة في عدم الاستقرار العالمي.

هناك أيضًا مسألة الأمن السيبراني. مع تزايد تأثير أنظمة الذكاء الاصطناعي في العمليات العسكرية، يتزايد خطر الهجمات السيبرانية من قبل الدول والجهات غير الدولية. يمكن أن تستهدف هذه الهجمات تعطيل أنظمة الذكاء الاصطناعي الحيوية، مما يؤدي إلى اختراقات أمنية كبيرة أو حتى إثارة ردود فعل عسكرية غير مقصودة.

تثير الجدل أيضًا من طبيعة الاستخدام المزدوج لتقنيات الذكاء الاصطناعي، التي يمكن استخدامها لأغراض مدنية وعسكرية على حد سواء. يجعل هذا الاستعمال المزدوج التنظيم الدولي أمرًا صعبًا ويشكل تحدٍ للحفاظ على الشفافية ومنع التصعيد في القدرات العسكرية.

المزايا:

– زيادة الكفاءة: يمكن لأنظمة الذكاء الاصطناعي معالجة كميات هائلة من البيانات بشكل أسرع من البشر، مما يوفر للقوات العسكرية معلومات دقيقة وفورية لاتخاذ القرارات.

– تحسين القدرات: يمكن للذكاء الاصطناعي تحسين دقة وفعالية أنظمة الأسلحة، مما يؤدي إلى زيادة القدرات العسكرية دون الحاجة إلى زيادة حجم القوات بالضرورة.

– حماية القوات بشكل أفضل: يمكن للذكاء الاصطناعي تقليل عدد الجنود المطلوبين لأداء المهام الخطرة، مما يقلل من معدلات الخسائر في حالات النزاع.

العيوب:

– نقص المساءلة: في حال قيام نظام الذكاء الاصطناعي باتخاذ قرار يؤدي إلى إلحاق ضرر غير مقصود، فإنه غير واضح من سيتم محاسبته – إن وُجد.

– تصعيد غير مقصود: قد يتفاعل أنظمة الذكاء الاصطناعي مع التهديدات المنظورة بسرعة أكبر مما يمكن للبشر التدخل، مما قد يؤدي إلى تصعيد للصراع غير مقصود.

– الاعتماد التكنولوجي: يمكن أن يؤدي الاعتماد المفرط على أنظمة الذكاء الاصطناعي إلى الثغرات، بشكل خاص إذا قام الخصوم بتطوير طرق لاستغلال أو تعطيل هذه الأنظمة.

روابط ذات صلة:
لمزيد من القراءة عن السياق الأوسع للأمان الذكي والتداعيات العسكرية، يرجى زيارة الروابط الرئيسية التالية:

RAND Corporation
Center for Strategic and International Studies (CSIS)
وزارة الدفاع الأمريكية

يرجى ملاحظة أن هذه روابط للنطاق الرئيسي فقط وليست للصفحات الفرعية المحددة. تأكد من التحقق من كل عنوان URL قبل الوصول إليه.

Privacy policy
Contact