تأثير الذكاء الاصطناعي في الحروب: تحديات الوعد بالدقة

تبث الذكاء الاصطناعي (AI) في الحروب قلقًا شديدًا بين أفراد العالم الرقمي. إذ يثير الاستبدال المحتمل لإرادة الإنسان والوكالة بواسطة آلات القتل AI بلا ندم تطلعًا مثيرًا للقلق. ومع ذلك، أصبح استخدام أنظمة الذكاء الاصطناعي المحسوبة داخل الحروب التقليدية بواسطة البشر حقيقة مرعبة بالفعل.

الاعتقاد الخاطئ يكمن في الاعتقاد بأن الأنظمة الذاتية ستجعل الوكالة البشرية منبوذة بما أنها تصبح أكثر تطورًا من الناحية الخوارزمية. إذ يوحي وعد الدقة في الحروب الحديثة بأن الخسائر المدنية ستنخفض في حين أن الفتك الذي يطال المقاتلين وغير المرغوب فيهم سيزيد بشكل كبير.

دراسة حالة حديثة تسلط الضوء على العيب في هذه الرؤية، حيث رصدت الحملة المدمرة التي شنتها إسرائيل في غزة. في محاولة لتحديد واستهداف الأهداف، قامت القوات الدفاع الإسرائيلية بدمج الذكاء الاصطناعي في عملياتها. ومع ذلك، فإن النتيجة بعيدة كل البعد عن كونها دقيقة أو مندرجة تحت قاعدة أخلاقية. فبدلًا من تقليل الأذى على المدنيين، يبدو أن استخدام إسرائيل للذكاء الاصطناعي يعزز القدرة على تحديد وتحديد وتوسيع مجموعات الأهداف، مما قد يؤدي بالنهاية إلى تحقيق أقصى قدر من الضرر.

التحقيق في هذه القضية يشير إلى منشور بعنوان “الفريق الإنساني-الآلي: كيفية إنشاء ذكاء اصطناعي إنساني وآلي سيقوم بثورة في عالمنا”، من تأليف العميد ي. ص.، القائد الحالي لوحدة المخابرات الإسرائيلية 8200. ينادي المنشور بنظام قادر على توليد آلاف الأهداف المحتملة بسرعة أثناء فترات الصراع. الهدف الشرير من هذه الآلة هو القضاء على الحاجة لموافقة بشرية وتحاشي ضرورة التحقق من صلاحية كل هدف.

كشف التحقيق المشترك من +972 وLocal Call عن مرحلة التطوير المتقدمة لهذا النظام، المعروف بـ Lavender للقوات الإسرائيلية. وتتجاوز Lavender النظم السابقة من حيث تحديد المباني العسكرية والهياكل المستخدمة من قبل المسلحين. ومع ذلك، فإن حتى هذا النوع من التعرف فشل في الحد من عدد القتلى، مما أدى فيما بعضهم يصفه بأنه “مصنع اغتيال جماعي”.

كشف ستة ضباط استخبارات إسرائيليين، خدموا خلال الحرب الأخيرة في غزة، عن الدور المركزي لـ Lavender في القصف الغير مسبوق للفلسطينيين، خاصة في المراحل الأولى من النزاع. حيث قلصت الآلة الذكاء العنصر البشري بشكل فعال بينما أضفت نوعًا خياليًا من الأصالة البشرية على نتائج الاستهداف.

في الأسابيع الأولى من الحرب، اعتمدت القوات الإسرائيلية بشكل كبير على Lavender، محددةً نحو 37,000 فلسطيني كمقاتلين محتملين لضربات جوية محتملة. وقد شكل ذلك تحولًا عن المذهب السابق لاستهداف العناصر العسكرية الكبار المحددين بوضوح. وبموجب السياسة الجديدة، تم تعيين جميع عناصر حماس في جناحها العسكري كأهداف بشرية دون اعتبار للرتبة.

منح الضباط سلطات واسعة لقبول قوائم القتل دون فحص، مع تخصيص 20 ثانية فقط لكل هدف قبل تصديق القصف. تم منح الإذن على الرغم من الوعي بأن نسبة 10 في المئة من الحالات تشمل أخطاء في الاستهداف، مما يتضمن تسمية أفراد بارزين بصلة فضفاضة أو بلا صلة بالجماعات المسلحة.

بالإضافة إلى ذلك، عمل نظام Lavender بالتعاون مع منصة أوتوماتيكية أخرى تسمى “أين بابا؟” هذه المنصة تتتبع الأفراد المستهدفين إلى مساكن عائلاتهم، التي تم هدمها بعد ذلك. والنتيجة كانت خسائر مدنية جسيمة، حيث قتل آلاف الفلسطينيين، بما في ذلك النساء والأطفال وغير المقاتلين، جراء الضربات الجوية الإسرائيلية خلال المراحل الأولى للنزاع.

أعرب الأمين العام للأمم المتحدة أنطونيو غوتيريش عن قلقه الشديد إزاء التقارير التي تفيد باستخدام إسرائيل للذكاء الاصطناعي في تحديد الأهداف، خاصة في المناطق السكنية الكثيفة. لقد أدى استخدام الذكاء الاصطناعي بهذه الطريقة إلى ارتفاع عدد الخسائر المدنية، مما أثار أسئلة أخلاقية وأخلاقية حول تأثير الحروب المدفوعة بالذكاء الاصطناعي.

أسئلة شائعة:

س: ما هو نظام Lavender؟

ج: نظام Lavender هو ابتكار بالذكاء الاصطناعي يستخدمه القوات الدفاع الإسرائيلية لتحديد الأهداف في الحروب.

س: ما مدى دقة نظام Lavender في الاستهداف؟

ج: وجد أن نظام Lavender يحتوي على عيوب في الاستهداف، مما يجعله يحدد أفرادًا لهم صلة فضفاضة أو لا علاقة لهم بالجماعات المسلحة.

س: كيف تأثرت الخسائر المدنية بسبب استخدام Lavender؟

ج: أدى استخدام Lavender، جنبًا إلى جنب مع منصات AI أخرى، إلى خسائر مدنية كبيرة، خاصة في غزة، خلال المراحل الأولى من النزاع.

المصادر:

The source of the article is from the blog j6simracing.com.br

Privacy policy
Contact