تأثير التكنولوجيا الاصطناعية في الهجمات المستهدفة: تحول ثوري في الحرب

في تطور مبهر، استفادت الجيش الإسرائيلي من قوة التكنولوجيا الاصطناعية (AI) لتنفيذ الهجمات المستهدفة في قطاع غزة. استخدام مجموعة متنوعة من أنظمة AI، مثل Lavender وGospel، قد غيّر الطريقة التي يحدد بها الجيش الأهداف المحتملة ويقضي عليها. هذه البرامج ليس فقط تسرع من عملية تحديد الهدف بل تقلل أيضًا من الحاجة إلى تدخل بشري، مما يعزز في نهاية المطاف قدرات الجيش.

يتحدث Lavender، وهو خوارزمية AI تم تطويرها بواسطة الجيش الإسرائيلي، يثبت فعاليته العالية في تحديد أعضاء حركتي حماس والجهاد الإسلامي الفلسطيني كأهداف محتملة للتفجير. من خلال جمع وتحليل كميات ضخمة من البيانات من جهود الرصد الشامل في قطاع غزة، يحدد Lavender الاحتمال الذي يتضمن مشاركة الفرد في أجنحة هذه المنظمات العسكرية. بنسبة دقة مذهلة تبلغ 90٪، فقد سمحت تقييمات Lavender للجيش الإسرائيلي بالقضاء استراتيجيًا على التهديدات ذات الملف الشخصية العالية.

التنفيذ الخاص بـ Lavender يشكل رحيلًا كبيرًا عن الأساليب التقليدية المتبعة في تحديد الأهداف. تم استبدال ضباط المعلومات البشرية لدرجة كبيرة بالنظام الذكي هذا الذي يمكنه تقييم الآلاف من الأهداف المحتملة في غضون ثوان. هذا لا يوفر الوقت الحاسم فقط بل يقلل أيضًا من خطر الخطأ البشري.

من ناحية أخرى، يوفر النظام الآخر القائم على AI، The Gospel، مساعدة إضافية من خلال توصية مباني وهياكل كأهداف محتملة بدلاً من الأفراد. من خلال تحويل التركيز بعيدًا عن الأفراد المحددين، يمكن للجيش الإسرائيلي استهداف المواقع ذات المخاطر المنخفضة من الأضرار الجانبية. نتيجة لذلك، يعزز The Gospel الدقة والفعالية للهجمات المستهدفة.

مع ذلك، فإن الاعتماد على أنظمة AI ليس بدون تحدياته. تم تسجيل حالات يعود فيها تدريب Lavender باستخدام ملفات التواصل الخاصة بالأهداف المحتملة إلى نتائج غير مقصودة. يعني نقص الرقابة البشرية وطبيعة التشغيل الآلي للنظام أن الأفراد ذوي الملفات الخاصة بالمدنيين يمكن أن يُعتبروا أيضًا عن طريق الخطأ كأهداف محتملة. وهذا يؤكد على أهمية الرقابة البشرية المستمرة في استخدام AI في العمليات العسكرية.

كما تبين أن الجيش الإسرائيلي قد أعطى أولوية استهداف أفراد محددين حينما كانوا في منازلهم. لتتبع هؤلاء الأفراد، قاموا باستخدام نظام AI يُعرف بـ “أين بابا؟” هذا النهج قدم ميزة استخباراتية، حيث تم تحديد مواقع الأفراد بسهولة أكبر في منازلهم الخاصة. مرونة وقابلية تكنولوجيا AI في تحديد الأهداف قدمت للجيش الإسرائيلي ميزة بارزة في النزاع المستمر.

بينما تنفي القوات الدفاع الإسرائيلية (IDF) بقوة الادعاءات بالاستهداف العمدي للمدنيين، تشير التقارير إلى أن الاستخدام المشترك لأنظمة AI مثل Lavender وThe Gospel وأين بابا؟ قد حصل على عواقب مدمرة. لقد تأثرت العائلات بأكملها عن غير قصد بسبب الرصد المستمر والهجمات الفورية التي تم تحفيزها بواسطة تكامل هذه الأنظمة AI. محاولة التوازن بين فوائد AI وحفظ حياة الأبرياء تعد تحديًا مستمرًا للجيش.

**الأسئلة الشائعة:**

Q: ما هو Lavender؟
A: Lavender هو برنامج AI يستخدمه الجيش الإسرائيلي لتحديد أعضاء حماس والجهاد الإسلامي الفلسطيني كأهداف محتملة للتفجير.

Q: كيف يعمل Lavender؟
A: يقوم Lavender بجمع المعلومات من جهود الرصد الشامل في قطاع غزة وتقييم احتمالية مشاركة كل شخص في الأجنحة العسكرية لحماس أو الجهاد الإسلامي.

Q: ما هو The Gospel؟
A: The Gospel هو نظام مبني على AI يوصي بمباني وهياكل كأهداف بدلاً من الأفراد، مما يعزز دقة الهجمات المستهدفة.

Q: هل استهدف Lavender المدنيين؟
A: بينما يشكل الطابع الآلي ل Lavender خطرًا على استهداف المدنيين بشكل خاطئ، تنفي قوات الدفاع الإسرائيلية الاستهداف المتعمد لغير المقاتلين.

Q: ما هو “أين بابا؟”؟
A: “أين بابا؟” هو نظام AI يستخدمه الجيش الإسرائيلي لتتبع أفراد محددين وتشن هجمات عندما يكونون في منازل عائلاتهم.

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact