تأثير استخدام إسرائيل للذكاء الاصطناعي في استهداف قطاع غزة

إن التحالف الناري المدمر من قبل القوات الإسرائيلية في سكان غزة قد أصبح حدثاً يومياً في النزاع الدائر بين إسرائيل وحماس. هذه الضربات الجوية غالباً ما تؤدي إلى تدمير منازل الفلسطينيين المعروفين، بما في ذلك الصحفيين والأطباء وعمال الإغاثة، مما يسفر عن وفاة عدد كبير من أفراد العائلات، بما في ذلك الأطفال.
تظهر هذه الخسائر المروعة تساؤلات محرجة حول سلوك إسرائيل في النزاع. من هم الأشخاص الذين تستهدفهم القيادات الإسرائيلية بهذه الضربات القاتلة، وكيف يتم اختيار هؤلاء الأهداف؟
تقدم التحقيق الأخير الصادر عن مجلة +972 وLocal Call بعض الإجابات المثيرة للريبة، حيث كشف عن الخطوط العريضة بين الذكاء الاصطناعي والأخلاق.

وفقًا للتقرير، فقد كانت القوات الدفاع الإسرائيلية تستخدم برنامج ذكاء اصطناعي يُسمى “اللافندر” لتحديد الأهداف في غزة منذ بداية الحرب. تعترف القوات الدفاع الإسرائيلية باستخدام الذكاء الاصطناعي لأغراض استخبارية، لكنها تؤكد أن اتخاذ القرارات البشرية لا يزال مركزيًا في عمليات اختيار الأهداف. ومع ذلك، يوحي تقرير +972 بأن استعراضات البشرية لأهداف الذكاء الاصطناعي غالباً ما تكون مجرد تصديق سريع، تستغرق لا تزيد على 20 ثانية.

وما هو أكثر مزعجًا هو أن نسبة الخطأ لدى نظام الذكاء الاصطناعي “اللافندر” لا تزال 10% في دقة الاستهداف. مما يعني وجود مخاطر كبيرة لقصف الأفراد الذين يشتركون بالأسماء مع أعضاء حماس أو حتى الأشخاص الذين تم توريث رقم هاتف لهم مؤخرًا.

حتى حين تحديد الاستخبارات الإسرائيلية لهدف مشتبه به له صلات بحماس، يواجهون معضلة أخلاقية بشأن وجود المدنيين في المكان. في الأسابيع الأولى من النزاع، قام القادة الإسرائيليين بالتصريح بأنه من المقبول قتل ما يصل إلى 15 إلى 20 مدنياً بريئاً لكل أمر جندي حماس منخرط فيه. وارتفع هذا العدد إلى المئات لقادة حماس على مستوى أعلى.

تكشف التقرير +972 أيضًا أن الجنود المشتبه بتورطهم في حماس على مستوى منخفض يتم استهدافهم بالقنابل غير الدقيقة، المعروفة بـ”القنابل الغبية”، لتوفير القنابل “الذكية” الأكثر تكلفة لأفراد ذوي مراتب أعلى. هذا الاستراتيجية تؤدي إلى المزيد من الأضرار الجانبية وزيادة الخسائر بين المدنيين.

ربما أكثر الكشوفات المزعجة هو أن نظام الذكاء الاصطناعي “اللافندر” ماهر في تتبع الأهداف المحددة إلى منازلهم، حيث يُعد القصف جوًا الأكثر نجاحًا. للأسف، يعني هذا أيضًا أن منازل هذه الأهداف تصبح أهدافًا بحد ذاتها، مما يؤدي إلى وفاة زوجاتهم وأطفالهم وأفراد أسرهم الآخرين. بشكل مروع، يتميز النظام الذكاء الاصطناعي بقدرته على تحديد منزل الهدف أكثر من تحديد وجود الهدف فعلياً. مما أدى إلى حالات تم فيها قتل عائلات بأكملها بدون سبب.

إحدى العمليات بشكل خاص، بإسم “أين بابا؟”، تسلط الضوء بشكل مظلم على واقع استخدام إسرائيل للذكاء الاصطناعي في هذا النزاع. إنه يصدى بشكل مرعب لاستخدام التكنولوجيا الجديدة لإحداث الدمار، بدءًا من البنادق الآلية في الحرب العالمية الأولى إلى غاز زيكلون ب في معسكرات الموت النازية. ويأخذ الارتفاع في استخدام الذكاء الاصطناعي هذا الأمر إلى مستوى جديد مقلق، حيث يتم تخصيص قرارات الحياة والموت للآلات لتجنب المسؤولية الأخلاقية.

تعمل القصص الناشئة من قطاع غزة كذكرى واضحة عن التكلفة البشرية للحرب والمعاناة الأخلاقية للانحياز إلى استخدام الذكاء الاصطناعي. إنه أمر حيوي أن نستمر في تساؤل وتحدي استخدام هذه التكنولوجيا، مضمنين بذلك أن سعينا لتحقيق الأهداف العسكرية لا يحجب قيمة حياة الإنسان.

أسئلة شائعة

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact