الاستخدام العسكري للذكاء الاصطناعي: تحت الضوء آثار غير مقصودة

تخطف الأنظار مؤخرا استخدام نظام الذكاء الاصطناعي من قبل الجيش الإسرائيلي لإنشاء قوائم من الأهداف للضربات الجوية المحتملة في قطاع غزة، مما جلب الاهتمام إلى الآثار المحتملة للذكاء الاصطناعي في المجال العسكري. وفقًا لتقرير نشرته منصة +972 Magazine الغير ربحية، تم استخدام النظام المعروف باسم لافندر بجانب أنظمة أخرى للذكاء الاصطناعي لاستهداف واغتيال المشتبه بهم في كونهم مقاتلين، مما أدى إلى وقوع خسائر مدنية كبيرة.

بينما تنفي قوات الدفاع الإسرائيلية العديد من الادعاءات في التقرير، مشيرة إلى أن لافندر ليس نظام ذكاء اصطناعي بل قاعدة بيانات لعمليات تقارن بين مصادر المعلومات الاستخباراتية، تؤكد مصادر أخرى على استخدام الذكاء الاصطناعي في العمليات العسكرية الإسرائيلية. في عام 2021، أفادت صحيفة جيروزاليم بوست بأن إسرائيل استخدمت أنظمة تعلم الآلة لتحديد الأهداف خلال نزاع مع حماس. بالإضافة إلى ذلك، ورد ذكر نظام الذكاء الاصطناعي المعروف باسم هبسورا في تقرير سابق من +972، والذي يحدد تلقائيًا مباني ومرافق محتملة للمقاتلين لتفجيرها.

إن إمكانية استخدام الذكاء الاصطناعي في العسكرية ليست محصورة في إسرائيل. فالدول مثل الولايات المتحدة والصين تستثمران أيضًا في أنظمة الذكاء الاصطناعي لأغراض عسكرية. يؤكد المؤيدون أن الذكاء الاصطناعي قد يؤدي إلى اتخاذ قرارات أسرع، دقة أكبر، وتقليل الخسائر. ومع ذلك، تثار مخاوف بشأن نقص الرقابة البشرية وإمكانية حدوث أخطاء في الأهداف التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

يشير التقرير الأخير من +972 إلى أن لافندر يتمتع بقدرة على استنساخ عملية تحديد الأهداف ولكن قد يكون لديه معايير أقل ومعايير دليلية أقل، مما يؤدي إلى حدوث أخطاء في حوالي 10% من الحالات. كما يقترح التقرير أنه تتم قصف الأهداف في منازلها كخيار أولي، مما يؤدي إلى وقوع ضحايا مدنيين.

لقد جرى تجاهل القلق الأخلاقي والقانوني الذي يحيط بالذكاء الاصطناعي العسكري بشكل كبير. حاليًا، لا توجد قواعد مقبولة عالميًا أو قانونية ملزمة تضبط استخدامه. ومع ذلك، توجد بعض التطورات في التعامل مع هذه القضايا. فقد بحثت الأمم المتحدة استخدام “أنظمة الأسلحة الذاتية الفتاكة” لأكثر من عقد، وصوتت الجمعية العامة للأمم المتحدة مؤخرا لصالح مشروع قرار ينص على أن الخوارزميات لا ينبغي أن تتحكم بشكل كامل في القرارات المتعلقة بالقتل. كما أصدرت الولايات المتحدة إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي والحكم الذاتي، والذي نال دعمًا من العديد من الدول.

على الرغم من هذه الجهود، تواجه اللوائح الدولية بشأن استخدام الذكاء الاصطناعي العسكري صعوبات في مواكبة التطور السريع للتكنولوجيا. مع اعتماد الجيوش في أنحاء العالم على أنظمة الذكاء الاصطناعي للحرب، تصبح الآثار الغير مقصودة والأضرار الإنسانية المحتملة أكثر وضوحًا.

لم يحقق وعد الحروب المتقنة بواسطة الذكاء الاصطناعي بعد بالكامل. تظهر التقارير حول استخدام أنظمة الذكاء الاصطناعي في غزة القيود والآثار الغير مقصودة للانحياز إلى الخوارزميات فقط في اتخاذ القرارات المتعلقة بالأهداف. من الضروري معالجة الصراعات الأخلاقية والأخلاقية المرتبطة بالذكاء الاصطناعي العسكري، لضمان توفير الرقابة البشرية وإقامة اللوائح الدولية لمنع سوء استخدام هذه التكنولوجيا القوية.

أسئلة متكررة

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact