الولايات المتحدة تعزز تكنولوجيا الذكاء الاصطناعي ضد الأعداء الأجانب

تعزيز تدابير أمان الذكاء الاصطناعي
تتخذ إدارة بايدن تدابير استباقية لحماية نماذج الذكاء الاصطناعي (AI) الأكثر تقدمًا في أمريكا من الأعداء المحتملين، مثل الصين وروسيا. تتضمن هذه الخطط إنشاء حواجز لمنع سوء استخدام أدوات الذكاء الاصطناعي التي تحلل كميات هائلة من النصوص والصور، والتي يمكن أن تمكن من الهجمات السيبرانية أو حتى تطوير أسلحة حيوية فعالة.

ظهور حقائق مشوهة ناتجة عن قدرات الذكاء الاصطناعي
تعبر مقاطع الفيديو التي تعدلها الذكاء الاصطناعي، والتي تمزج بين الحقائق والتزويرات، تدريجيًا إلى وسائل التواصل الاجتماعي. تشوش هذه التلاعبات بين الواقع والخيال، بشكل خاص في المشهد السياسي المتقطع في الولايات المتحدة. على الرغم من وجودها لسنوات عدة، إلا أن وسائل الإعلام التي تمت تلاعبها هذه قد حازت على تأثير مع إطلاق أدوات الذكاء الاصطناعي الجديدة، كما يبينها برنامج Midjourney.

تشير التقارير من مارس إلى أن أدوات إنشاء الصور المدعومة بالذكاء الاصطناعي من شركات مثل OpenAI وMicrosoft يمكن أن تستغل لتزوير الصور التي تنتشر بها معلومات مضللة عن الانتخابات أو التصويت، على الرغم من أن لدى هذه الشركات سياسات ضد إنشاء المحتوى المضلل.

مكافحة حملات الإيهام
استفادت حملات الإيهام من تقليد الذكاء الاصطناعي للمقالات الأصيلة كمرفق شائع لنشر الأكاذيب. تسعى العمالقة في وسائل التواصل الاجتماعي مثل فيسبوك وتويتر ويوتيوب إلى التصدي لهذه التغييرات في الصورة، ولكن فعالية جهودهم تختلف.

كانت حالة من الإيهام المدعوم بالذكاء الاصطناعي ادعاءًا كاذبًا تؤيد إحدى منافذ الأخبار الصينية التابعة للدولة، باتهام الولايات المتحدة بتشغيل مختبر للأسلحة البيولوجية في كازاخستان، كما لوحظ ذلك في تقرير تقييم التهديد لعام 2024 من وزارة الأمن الداخلي (DHS).

أقر مستشار الأمن القومي، جيك سوليفان، في حدث للذكاء الاصطناعي في واشنطن أن الدفاع عن الديمقراطية من هذه الحملات الواسعة النطاق للإيهام يُعتبر تحديًا نظرًا لاستغلالها لقدرات الذكاء الاصطناعي بنوايا ضارة من جانب الدولة والمنظمات غير الحكومية.

مخاطر الأسلحة البيولوجية والسيبرانية
تتزايد مخاوف الجهات المخابراتية الأمريكية والباحثون من المخاطر التي تشكلها الجهات الشريرة في الخارج عند الوصول إلى قدرات الذكاء الاصطناعي المتقدمة. وبشكل خاص، أشارت الدراسات من شركة جريفين العلمية وشركة راند إلى أن نماذج اللغة الكبيرة (LLMs) يمكن أن توفر معلومات قد تساعد على إنشاء أسلحة حيوية.

في مثلاً واحد، تبين أن LLMs قادرة على تزويد المعرفة على مستوى ما بعد الدكتوراه بشأن الأمراض الفيروسية ذات الإمكانية الوبائية. كما أوحت أبحاث أخرى من راند إلى أن LLMs يمكن أن تساعد في التخطيط وتنفيذ هجوم بيولوجي، بما في ذلك اقتراح طرق توزيع الإيروسول لسم الدمل.

على الجبهة السيبرانية، حذّر التقييم التهديدي لعام 2024 من وزارة الأمن الداخلي من استخدام الذكاء الاصطناعي لتطوير أدوات تُمكن من شن هجمات سيبرانية أكبر وأسرع وأكثر تمويهًا على البنية التحتية الحيوية الحيوية بما في ذلك خطوط الأنابيب النفطية والسكك الحديدية. كشفت مايكروسوفت أن مجموعات القراصنة المترابطة بحكومات صينية وكورية شمالية، الاستخبارات العسكرية الروسية، والحرس الثوري الإيراني تقوم بتنقيح جهودها في القرصنة من خلال توظيف نماذج لغوية كبيرة.

بناءً على السياق المقدم من المقالة، يمكن مراجعة بعض الحقائق الإضافية ذات الصلة التي يمكن مراعاتها في العنوان:

المنافسة الدولية في تطوير الذكاء الاصطناعي: السباق نحو الهيمنة في مجال الذكاء الاصطناعي ليس مقتصرًا على الولايات المتحدة وأعدائها. تقوم البلدان حول العالم بالاستثمار بشكل كبير في الذكاء الاصطناعي. هذا يخلق منظرًا دوليًا معقدًا حيث تحدث التعاون والتنافس في وقت واحد، وهو ما يؤثر على الأمن العالمي والديناميات الاقتصادية.

القلق التنظيمي والأخلاقي: مع تقدم تكنولوجيا الذكاء الاصطناعي، يتصارع العديد من الكيانات، بما في ذلك الحكومات والمنظمات الدولية، مع الانعكاسات الأخلاقية وضرورة التنظيم لضمان تطوير الذكاء الاصطناعي واستخدامه بمسؤولية. تمثل مناقشات حول المراقبة والخصوصية والاستخدام الأخلاقي للذكاء الاصطناعي في التطبيقات العسكرية نماذج لهذه المخاوف.

الذكاء الاصطناعي والأمن الاقتصادي: بالإضافة إلى التطبيقات العسكرية والأمن السيبراني، يؤثر تكنولوجيا الذكاء الاصطناعي بشكل كبير أيضًا على الأمن الاقتصادي. قد تعزز قدرات التحسين والتحسين من الإنتاجية والنمو الاقتصادي ولكن قد يؤدي أيضًا إلى أزمات تشغيلية وزيادة التفاوت.

خطاب ‘سباق الأسلحة الذكية’: أثار النقاش حول ‘سباق الأسلحة الذكية’، وبشكل خاص بين الولايات المتحدة والصين قلقًا وجدلاً. يمكن أن يشع ذلك الخطاب الناجم عن سباق الأسلحة إلى حدوث معركة أمنية حيث تسعى كل جانب لزيادة القدرات في استجابة للتهديد المعتقد من تقدم الجانب الآخر، مما قد يؤدي إلى تصاعد التوتر.

وفيما يلي بعض الأسئلة الرئيسية المرتبطة بالموضوع، جنباً إلى جنب مع إجاباتها:

لماذا من المهم على الولايات المتحدة حماية تكنولوجيا الذكاء الاصطناعي الخاصة ضد الأعداء الأجانب؟
من الضروري من أجل الأمن القومي، والحفاظ على النصب التذكاري في الاقتصاد العالمي، وحماية سلامة المعلومات والعمليات الديمقراطية. يمكن أن يُستغل الذكاء الاصطناعي المتقدم لتنفيذ هجمات سيبرانية، والتأثير على الرأي العام، وتعزيز قدرات أنظمة الأسلحة.

ما هي التحديات الرئيسية في منع سوء استخدام الذكاء الاصطناعي من قبل الجهات الأجنبية؟
تدابير التكنولوجيا لحماية الذكاء الاصطناعي معقدة وتستلزم كثيراً من الموارد. علاوة على ذلك، يجعل الطبيعة العالمية والمتصلة لصناعة التكنولوجيا من الصعب السيطرة على انتشار المعلومات والتكنولوجيا. مسائل التنسيب، وسرعة التكنولوجيا، واختلاف المعايير واللوائح الدولية تشكل أيضًا تحديات.

ما هي الجدليات المحيطة بتطوير ودفاع الذكاء الاصطناعي؟
المخاوف بشأن إمكانية وجود سباق للأسلحة الذكية، والمراجعات الأخلاقية بشأن أنظمة الأسلحة المستقلة، التوازن بين الابتكار والأمن، وإمكانية حدوث صراعات تشويش أمني متصاعدة هي الجدليات الرئيسية في مجال تطوير ودفاع الذكاء الاصطناعي.

تتضمن مزايا وعيوب تحصين تكنولوجيا الذكاء الاصطناعي ما يلي:

المزايا:
– تعزيز الأمن القومي ضد التهديدات السيبرانية.
– حماية البنية التحتية الحيوية الحيوية والاستقرار الاقتصادي.
– منع انتشار الإيهام والحفاظ على سلامة العمليات الديمقراطية.
– الحفاظ على الميزة التنافسية الاستراتيجية في القيادة التكنولوجية العالمية.

العيوب:
– تصعيد سباقات الأمن السيبراني مع الأعداء.
– إمكانية عرقلة تبادل المعرفة العلمية المفتوحة.
– خطر التنظيم الزائد الذي قد يُعيق الابتكار في صناعة التكنولوجيا المحلية.
– تساؤلات أخلاقية حول نشر تكنولوجيا الذكاء الاصطناعي الدفاعية، مثل مخاطر المراقبة الشاملة أو الأسلحة الآلية.

للمزيد من المعلومات ذات الصلة، قد يتم زيارة المواقع الإلكترونية التالية:

AI.gov: لموارد ومعلومات حكومية تحتوي على م

Privacy policy
Contact