الجيش الإسرائيلي يستخدم الذكاء الاصطناعي لاستهداف الأهداف في نزاع غزة

الجيش الإسرائيلي يستخدم الذكاء الاصطناعي لاستهداف الأهداف في نزاع غزة

Start

منذ أكتوبر 2023، جذب استخدام الذكاء الاصطناعي في الحروب من قبل الجيش الإسرائيلي اهتمامًا كبيرًا. في نزاع غزة المستمر، يستفيد القوات الدفاعية الإسرائيلية (IDF) من أنظمة دفعية بتقنية الذكاء الاصطناعي لاستهداف التهديدات بدقة داخل المنطقة المكتظة بالسكان. تلعب الآلة القائمة على تجميع البيانات الواسعة دورًا حرجًا في هذه العملية، حيث تستوعب معلومات مثل عناوين السكن، أنماط الحركة، نشاط وسائل التواصل الاجتماعي، وحتى العلاقات الشخصية لتأسيس قوائم للأهداف المحتملة.

كشف تقرير إخباري قام به صحفيون إسرائيليون، مغذيًا برؤى من ستة أفراد من وحدة الاستخبارات السيبرانية النخبية في IDF، عن عملية مثيرة للجدل تعرف باسم “لافندر”. تتضمن هذه العملية إنشاء قوائم تخدم فعليًا كتصورات مسبقة للاغتيالات المستهدفة. يقترح رئيس التحرير ميرون رابوبورت نظرة مظلمة لأولئك المدرجين في هذه القوائم عن طريق أنظمة الذكاء الاصطناعي، مُساويًا الاعتماد على أنه استهداف للقتل.

الذكاء الاصطناعي لا يتخذ قرارات مستقلة بالقضاء على الأهداف؛ ومع ذلك، يُرشد الموظفون في IDF للتصرف بسرعة بمجرد تحديد هدف من قبل النظام. يُعد المعيار للأضرار الجانبية المقبولة ملفتًا للانتباه؛ للأهداف العادية، هو بين 15 و 20 فردًا، لكن يمكن أن يرتفع هذا الرقم إلى بين 200 و 300 للأهداف عالية القيمة. عبرت منظمات حقوق الإنسان والأمم المتحدة عن قلقها حيال هذه الطريقة، لا سيما في ظل استخدام الذكاء الاصطناعي على نطاق واسع لتحديد القرارات القتالية لأول مرة من قبل جيش.

الأسئلة المهمة:

1. ما هي النتائج الأخلاقية التي تنشأ عن استخدام الذكاء الاصطناعي لاستحواذ الأهداف في مناطق النزاعات؟
يثير استخدام الذكاء الاصطناعي في التطبيقات العسكرية، ولا سيما لاستحواذ الأهداف، مخاوف أخلاقية كبيرة. القرارات التي قد تؤدي إلى فقدان الأرواح حساسة للغاية، ويمكن أن يخلق تفوق هذه القرارات لأنظمة الذكاء الاصطناعي مسافة أخلاقية بين المشغلين البشر والنتائج القاتلة. الخطر من الأخطاء وإمكانية تخفيض العتبة للاشتراك في القتال بسبب الدقة والكفاءة المرئية لأنظمة الذكاء الاصطناعي أيضًا مشاكل أخلاقية ملحة.

2. مدى دقة الذكاء الاصطناعي في تحديد الأهداف العسكرية الصالحة، وما هي الإجراءات الوقائية المتخذة لتجنب وقوع ضحايا مدنيين؟
لا يوجد نظام ذكاء اصطناعي لا يخطئ. لذا، يُعد الدقة جانبًا حاسمًا عند استخدامه في أغراض عسكرية، خاصة في المناطق المكتظة بالسكان حيث يكون خطر حصول خسائر بين المدنيين عاليًا. تتضمن الإجراءات الوقائية عادةً قواعد صارمة للتعامل والإشراف البشري. ومع ذلك، فإن طبيعة هذه الإجراءات وفعاليتها الدقيقة في نظام IDF غير مفصلة بشكل كبير في النطاق العام.

3. ما هي النتائج المترتبة على الحرب التي تعتمد على الذكاء الاصطناعي عن القانون الدولي وقواعد النزاع المسلح؟
تواجه الحروب التي تعتمد على الذكاء الاصطناعي تحديات أمام القانون الدولي، بشكل خاص مبادئ التمييز، التناسبية، والضرورة في قواعد النزاع المسلح. تتطلب هذه المبادئ أن يفرق المقاتلون بين الأهداف العسكرية وغير المقاتلين، وضمان عدم تفوق الفائدة العسكرية المتوقعة من هجوم على الأضرار الملحقة بالمدنيين، واستخدام القوة فقط عند الضرورة. يثير دمج الذكاء الاصطناعي صعوبات في الالتزام بتلك المبادئ.

Privacy policy
Contact

Don't Miss

The Dual Perception of Artificial Intelligence in Society

الإدراك المزدوج للذكاء الاصطناعي في المجتمع

زاد استخدام الذكاء الاصطناعي (AI) في الحياة اليومية، مما أثار
The Unforeseen Conspiracy Behind Artificial Love

المؤامرة غير المتوقعة وراء الحب الصناعي

في منعطف فريد من نوعه، تصادق الذكاء الاصطناعي المتطور بشكل