دور الذكاء الاصطناعي المثير للجدل في العمليات العسكرية لإسرائيل

في الآونة الأخيرة، جاء استخدام إسرائيل لبرنامج الذكاء الاصطناعي (AI) المسمى Lavender، تحت المجهر. يُستخدم البرنامج لجمع وتحليل المعلومات حول الأهداف المزعومة المرتبطة بحماس قبل العمليات العسكرية. بينما يدافع جيش الدفاع الإسرائيلي (IDF) عن استخدام هذه التقنية كأداة مفيدة، يُعارض النقاد بأنه قد يكون لها تأثير كبير على مدى الدمار في غزة.

بدأت الجدل المحيط بـ Lavender مع تقرير نشرته صحيفة The Guardian، كشفت فيه إسرائيل عن استخدام قاعدة بيانات AI لتحديد 37،000 هدف مزعوم لحماس. تعاونت المجلة الإسرائيلية اليسارية +972 مع الاتصال المحلي لنشر مقال ألقى المزيد من الضوء على استخدام إسرائيل للذكاء الاصطناعي. وفقًا لـ +972، لعب Lavender دورًا حيويًا في قصف الفلسطينيين، حيث تعاملت القوات العسكرية مع إنتاج الجهاز الذكي بمثابة قرار بشري.

استقطبت صحيفة واشنطن بوست أيضًا تقرير The Guardian، موحية بأن استخدام تقنية AI قد يفسر الدمار الواسع الذي شهد خلال الصراع. أثارت المخاوف بشأن استخدام إسرائيل لـ Lavender دعوة الولايات المتحدة إلى التحقيق في المسألة، حيث أكد المتحدث الرسمي باسم الأمن القومي في البيت الأبيض جون كيربي أنهم يبحثون في الأمر.

استنكر المتحدث باسم IDF ناداف شوشاني استخدام Lavender على وسائل التواصل الاجتماعي ردًا على الجدل. رفض تقرير The Guardian، واصفًا قاعدة البيانات AI بأنها مجرد أداة للتحقق المتبادل للمعلومات الحالية عن العناصر النشطة في المنظمات الإرهابية. شدد شوشاني على أن قاعدة البيانات ليست قائمة بالعناصر المؤهلة للهجوم بل تعد مساعدة للتحليل البشري.

ومع ذلك، يُعارض النقاد أن هذا التمييز ليس له أهمية لأن إسرائيل تدعي الحق في مهاجمة أي هدف تابع لحماس. لذا، تعتبر قاعدة البيانات التي تحتوي على معلومات حول الأعضاء المزعومين لحماس عملياً قائمة بالأهداف المحتملة. تتجاوز المخاوف حول استخدام تقنية AI نفسها، مثيرةً تساؤلات حول أهمية ضباط الاستخبارات البشرية في عملية اختيار الأهداف.

وفقًا لمقابلات The Guardian مع ضباط استخبارات إسرائيليين، أعرب بعضهم عن شكوك في قيمة أدوارهم في عملية اختيار الأهداف. أقر أحد الضباط بأنهم قضوا مجرد 20 ثانية على كل هدف، مما يوحي بأن مساهمتهم كانت بسيطة وخدمت أساسًا كختم موافقة. كشف ضباط آخرون عن شعورهم المستمر بالضغط من الرؤساء لتحديد المزيد من الأهداف.

يسلط الجدل المحيط بدور الذكاء الاصطناعي في العمليات العسكرية الإسرائيلية الضوء على التعقيدات والاعتبارات الأخلاقية المرتبطة باستخدام مثل هذه التقنيات في سياق النزاعات المسلحة. بينما يصر IDF على أن التحليل البشري لا يزال أمرًا حاسمًا، يُعارض النقاد بأن الاعتماد المتزايد على الذكاء الاصطناعي قد يضعف عملية اتخاذ القرار ويزيد من العواقب المدمرة للأفعال العسكرية.

أسئلة شائعة

The source of the article is from the blog exofeed.nl

Privacy policy
Contact