استخدام الذكاء الاصطناعي في القوات المسلحة الإسرائيلية: مخاوف تثير تساؤلات

في تحقيق حديث، تم اكتشاف أن القوات المسلحة الإسرائيلية تستخدم تكنولوجيا الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة. أثار هذا الكشف، الذي أورده +972 Magazine وLocal Call، مخاوف خطيرة حول دقة والتبعات الأخلاقية للإعتماد بشكل كبير على الذكاء الاصطناعي لهذه الأغراض. وفقًا لـ ستة مسؤولين إسرائيليين في المخابرات متورطين في البرنامج المزعوم، يبلغ معدل الخطأ المبلغ عنه لأداة القائمة على الذكاء الاصطناعي المُسماة “لافندر” نسبة 10%.

بينما أقرت القوات الدفاعية الإسرائيلية (IDF) بوجود الأداة المذكورة، نفت استخدام الذكاء الاصطناعي لتحديد الإرهابيين المشتبه بهم. ومع ذلك، اعترفوا بأن أنظمة المعلومات تعمل كأدوات للمحللين أثناء عملية تحديد الأهداف. شددت IDF على التزامها بتقليل الأضرار على المدنيين، مشيرة إلى أن يجب على المحللين فحص وتحقق الأهداف المحددة بشكل مستقل وفقًا للقانون الدولي وتوجيهات الجيش.

على خلاف تصريحات IDF، كشف أحد المسؤولين المتورطين في البرنامج أن الكوادر البشرية غالباً ما تلعب دورًا ضئيلًا وتقضي فقط حوالي 20 ثانية في تقييم كل هدف قبل تفويض الضربات الجوية. وهذا يثير مخاوف بشأن مستوى الفحص والنظر الذي يتم إعطاؤه لضحايا أبرياء محتملين.

يأتي التحقيق في وقت تشتد فيه المراقبة الدولية للحملة العسكرية الإسرائيلية. لقد جذبت الحوادث التي تورطت فيها الضربات الجوية المستهدفة وأدت إلى مقتل عمال المساعدة الأجانب اهتمامًا كبيرًا. وقد أفادت وزارة الصحة في غزة بتسجيل أكثر من 32,916 حالة وفاة بسبب حصار إسرائيل في غزة، مما أدى إلى أزمة إنسانية وجوع واسع النطاق تؤثر على ثلاثة أرباع السكان في شمال غزة، كما أوردت الأمم المتحدة.

يوفال أبراهام، مؤلف التحقيق، سلط الضوء سابقًا على الاعتماد الثقيل لإسرائيل على الذكاء الاصطناعي لتوليد الأهداف بإشراف بشري أدنى. ومع ذلك، ينفي الجيش الإسرائيلي استخدام نظام الذكاء الاصطناعي لتحديد الإرهابيين ولكن يعترف باستخدام قاعدة بيانات لمطابقة مصادر الاستخبارات حول المنظمات العسكرية لمنظمات إرهابية.

كشف التحقيق أيضًا أن الجيش الإسرائيلي نفذ بشكل منهجي هجمات ليلاً على أهداف في المنازل السكنية، مما أدى غالبًا إلى مقتل فلسطينيين بريئين، بما في ذلك النساء والأطفال. كان استخدام القنابل “الغبية” غير الموجَّهة، التي يمكن أن تسبب أضرار جانبية كبيرة، يُفضله الجيش عند استهداف المنتمين المزعومين إلى التنظيمات العسكرية.

وفقًا لتقرير على شبكة CNN، كانت ما يقرب من نصف القنابل التي أُلقيت على غزة في حملة حديثة قنابل “غبية” غير موجَّهة. هذا يشكل تهديدًا أكبر للمدنيين، لا سيما في المناطق الكثيفة مثل غزة. تزعم IDF أن الضربات لا تُنفَّذ إلا عندما لا يكون التلف المتوقع من ظواهر مفرط فيما يتعلق بالميزة العسكرية وأن يتم بذل الجهود لتقليل الأضرار على المدنيين.

يثير استخدام الذكاء الاصطناعي في عملية تحديد الأهداف للجيش الإسرائيلي تساؤلات أخلاقية حرجة. هناك حاجة إلى المزيد من الشفافية والمساءلة والمشاركة البشرية في اتخاذ القرارات لضمان حماية حياة الأبرياء. يجب على المجتمع الدولي الدخول في حوار ومراقبة لمعالجة هذه المخاوف وحماية مبادئ القانون الإنساني.

تعريفات:

ما هو الذكاء الاصطناعي؟

الذكاء الاصطناعي يشير إلى تطوير الآلات الذكية قادرة على أداء المهام التي تتطلب بشكل عام الذكاء البشري، مثل الإدراك البصري، التعرف على الكلام، اتخاذ القرارات، وحل المشكلات.

ما هي القنابل “الغبية” غير الموجهة؟

القنابل “الغبية” غير الموجهة هي أجهزة تفجير تقليدية تفتقر إلى أنظمة توجيه وتعتمد على الجاذبية لمسارها. تزيد هذه القنابل من احتمالية وقوع الأضرار الجانبية والأذى للمدنيين نتيجة لطبيعتها عدم الدقة.

ما هدف عملية تحديد الأهداف للجيش الإسرائيلي؟

هدف عملية تحديد الأهداف للجيش الإسرائيلي هو تحديد وضرب الأهداف المرتبطة بمنظمات إرهابية، بغاية تعطيل عملياتها وضمان الأمن القومي. ومع ذلك، تم توجيه مخاوف حول دقة تحديد الأهداف والأضرار المحتملة على المدنيين.

للمزيد من المعلومات حول الذكاء الاصطناعي، يمكنك زيارة Brookings Institution.

لفهم المزيد عن القنابل “الغبية” غير الموجَّهة، يمكنك زيارة Arms Control Association.

للمزيد من الرؤى حول عملية تحديد الأهداف في الجيش الإسرائيلي والتبعات الأخلاقية، يمكنك زيارة Al Jazeera.

للمزيد من المعلومات عن الأزمة الإنسانية في غزة وأثر حصار إسرائيل، يمكنك زيارة الأمم المتحدة.

Privacy policy
Contact