واقع الحرب الذكية: كشف العواقب غير المقصودة

استخدام النظام الذكاء الاصطناعي (AI) بواسطة الجيش الإسرائيلي في إنتاج قوائم الأهداف لضربات جوية محتملة في غزة قد جلب انتباهًا إلى تداعيات استخدام التكنولوجيا في الجيش. وفقًا لتقرير نشرته منظمة +972 Magazine غير الربحية، استخدم النظام المعروف بالاسم Lavender جنبًا إلى جنب مع أنظمة أخرى للذكاء الاصطناعي لاستهداف واغتيال المشتبه بهم بالتورط في العمليات العسكرية، مما أدى إلى وقوع إصابات مدنية كبيرة.

بينما تنفي قوات الدفاع الإسرائيلية العديد من الادعاءات في التقرير، مشيرة إلى أن Lavender ليس نظام ذكاء اصطناعي وإنما قاعدة بيانات لتقاطع مصادر المعلومات، فإن مصادر أخرى تؤكد استخدام الذكاء الاصطناعي في العمليات العسكرية الإسرائيلية. في عام 2021، ذكرت صحيفة Jerusalem Post أن إسرائيل استخدمت أنظمة التعلم الآلي لتحديد الأهداف خلال صراع مع حماس. بالإضافة إلى ذلك، تم ذكر نظام ذكاء اصطناعي يسمى Habsora في تقرير سابق من +972 Magazine، الذي يحدد تلقائيًا المباني والمرافق التي يمكن استهدافها للاشتباه بتواجدها مقاتلين.

إن الإمكانيات التي يوفرها الذكاء الاصطناعي في المجال العسكري ليست مقتصرة على إسرائيل. بل دول مثل الولايات المتحدة والصين تستثمران أيضًا في أنظمة الذكاء الاصطناعي لأغراض عسكرية. يؤكد أنصار هذه التقنية أنها يمكن أن تؤدي إلى اتخاذ القرارات بشكل أسرع، وزيادة الدقة، وتقليل الخسائر البشرية. ومع ذلك، هناك مخاوف بشأن نقص الرقابة البشرية والاحتمالات لحدوث أخطاء في الأهداف التي يولدها الذكاء الاصطناعي.

يزعم تقرير +972 الأخير أن Lavender يتمتع بالقدرة على تلقيد الأهداف تلقائيًا، ولكن قد تكون لديه معايير أقل تشددًا ومعايير أدلة أقل، مما يؤدي إلى وقوع أخطاء في حوالي 10% من الحالات. يشير التقرير أيضًا إلى أن الأهداف تتعرض للقصف في منازلها كخيار أولي، مما يؤدي إلى سقوط ضحايا مدنيين.

تم تجاهل القلق الأخلاقي والقانوني الذي يحيط بالذكاء الاصطناعي في المجال العسكري بشكل كبير. حاليًا، لا توجد قواعد مقبولة عالميًا أو إلزامية قانونًا تحكم استخدامه. ومع ذلك، حدثت بعض التطورات في مواجهة هذه القضايا. تناقش الأمم المتحدة استخدام “أنظمة الأسلحة الذاتية القاتلة” منذ أكثر من عقد، وصوتت الجمعية العامة للأمم المتحدة مؤخرًا لصالح مشروع قرار ينص على أن الخوارزميات لا ينبغي أن تكون بالكامل سلطة في اتخاذ القرارات المتعلقة بالقتل. كما أصدرت الولايات المتحدة إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي والاستقلال، الذي حظي بدعم من عدة دول.

على الرغم من هذه الجهود، تواجه التنظيمات الدولية المتعلقة باستخدام الذكاء الاصطناعي في المجال العسكري صعوبة في مواكبة التطورات السريعة للتكنولوجيا. مع اعتماد الجيوش في جميع أنحاء العالم على أنظمة الذكاء الاصطناعي في الحروب، تصبح التداعيات الغير مقصودة والأضرار الإنسانية المحتملة أكثر وضوحًا.

لم يتحقق بعد الوعد بالحرب الدقيقة التي تمكنها التكنولوجيا في مجال الذكاء الاصطناعي. تظهر التقارير حول استخدام أنظمة الذكاء الاصطناعي في غزة القيود والتداعيات الغير مرغوب فيها للانحياز إلى الحسابات الآلية في اتخاذ القرارات. ومن الضروري معالجة الأزمات الأخلاقية والأخلاقية المرتبطة بالذكاء الاصطناعي العسكري، مع ضرورة إقامة رقابة بشرية ووضع تشريعات دولية لمنع سوء استخدام هذه التكنولوجيا القوية.

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact