تطور الذكاء الاصطناعي والتحقيقات الجنائية

في قرار مبتكر، قرر قاض في ولاية واشنطن حظر استخدام الفيديو المحسن بواسطة الذكاء الاصطناعي كدليل في قضية محكمة جنائية. يعتقد أن هذا القرار هو الأول من نوعه في الولايات المتحدة. أوضح القاضي ليروي مكولوج، الذي تم الكشف عن قراره يوم الجمعة، مخاوف بشأن موضوعية وشفافية تقنية الذكاء الاصطناعي في الإجراءات القانونية.

وصف القاضي الفيديو المحسن بواسطة الذكاء الاصطناعي بأنه “جديد” وقال إنه يعتمد على طرق غير شفافة لتفسير وتقديم المعلومات البصرية. عبر ماكولوج عن مخاوفه من أن قبول الأدلة المحسنة بواسطة الذكاء الاصطناعي يمكن أن يربك المحلفين ويعقد المحاكمة من خلال تحفيز مناقشة ثانوية حول النموذج الذي لم يراجعه الأقران والذي تم استخدامه لإنتاج الفيديو المحسن.

قامت الدفاع عن رجل يُدعى جوشوا بولوكا، الذي يُتهم بقتل ثلاثة أشخاص خارج بار في منطقة سياتل، بمحاولة تقديم لقطات فيديو من هاتف محمول تم تحسينها باستخدام برامج تعلم الآلة كدليل. ومع ذلك، زعم المدعون أنه ليس هناك سابقة قانونية تسمح باستخدام مثل هذه التكنولوجيا في المحاكم الجنائية. يعتقد الخبراء القانونيون أن هذه أول حالة جنائية تعنى محكمة في الولايات المتحدة بالاستخدام الأدلة المحسنة بواسطة الذكاء الاصطناعي.

تشهد استخدامات تقنية الذكاء الاصطناعي، بما في ذلك الفيديوهات المزورة (الفيديوهات أو الصور المعدلة)، تطورًا سريعًا. يجادل صانعو السياسات على كل من المستويين الولائي والفيدرالي في التعامل مع المخاطر المحتملة المرتبطة بتلك التكنولوجيات. تشعر المجتمع القانوني بقلق خاص بشأن دقة ومصداقية وتحيزات محتملة في النماذج الذكاء الاصطناعي المستخدمة لتلاعب الأدلة البصرية.

الأسئلة الشائعة

س: ما هو مضمون قرار المحكمة في ولاية واشنطن؟

ج: قررت المحكمة ضد استخدام الفيديو المحسن بواسطة الذكاء الاصطناعي كدليل في قضية جنائية، مشيرة إلى أن الأساليب الغامضة للتكنولوجيا وقدرتها على إرباك المحلفين قد تضعف عملية المحاكمة.

س: لماذا أرادت فريق الدفاع تقديم أدلة فيديو محسنة بواسطة الذكاء الاصطناعي؟

ج: زعم فريق الدفاع أن الفيديو المحسن سيدعم ادعاءهم بالدفاع الذاتي من خلال توفير صورة أوضح للأحداث التي أدت إلى الجرائم ثلاثية القتل.

س: ما هي المخاوف التي أثارها القاضي حول الأدلة المحسنة بواسطة الذكاء الاصطناعي؟

ج: عبر القاضي عن قلقه بشأن نقص المراجعة النظرية وشفافية النموذج الذي استخدم لتحسين الفيديو، والذي يمكن أن يؤدي إلى نزاعات وتشتت الانتباه خلال المحاكمة.

س: ما هي بعض الانتقادات للأدلة المحسنة بواسطة الذكاء الاصطناعي؟

ج: يعارض الشككاء أن الأدلة المحسنة بواسطة الذكاء الاصطناعي قد تنتج نتائج غير دقيقة ومتحيزة. كما يعتقدون أن هناك حاجة إلى المزيد من الأبحاث والأساليب المثبتة لضمان موثوقية التكنولوجيا.

س: كيف تعامل صانعو السياسات مع المخاطر المرتبطة بتقنية الذكاء الاصطناعي؟

ج: صانعو السياسات على المستوى الولائي والفيدرالي يتعاملون حاليًا مع المخاطر المحتملة لتقنية الذكاء الاصطناعي، بما في ذلك تفشي الفيديوهات والصور المزورة والحاجة إلى تنظيمات لمعالجة هذه المخاطر.

**مصدر الإعلان: NBC News**

لا يزال مهمًا أيضًا الإشارة إلى توقعات الصناعة والأسواق المتعلقة بتقنية الذكاء الاصطناعي في الإجراءات القانونية. الصناعة الذكاء الاصطناعي تنمو بسرعة، مع تطبيقات تتراوح بين مجالات الرعاية الصحية إلى الشؤون المالية، ويستكشف النظام القضائي أيضًا ادماج تقنيات الذكاء الاصطناعي.

وفقًا لتقرير أبحاث السوق من MarketsandMarkets، من المتوقع أن تبلغ قيمة السوق العالمية لتقنية الذكاء الاصطناعي في القانون 1.23 مليار دولار بحلول عام 2024، بمعدل نمو سنوي مركب (CAGR) يبلغ 31.3٪ من عام 2019 إلى عام 2024. وهذا يشير إلى إمكانيات السوق الكبيرة لحلول تقنية الذكاء الاصطناعي في القطاع القانوني، بما في ذلك استخدام الأدلة المحسنة بواسطة الذكاء الاصطناعي.

ومع ذلك، هناك عدة قضايا وتحديات مرتبطة باستخدام تقنية الذكاء الاصطناعي في الإجراءات القانونية. المصداقية والقابلية للتفسير للنماذج الذكاء الاصطناعي تشكل مخاوف رئيسية. غالبًا ما تنشئ النظم الذكاء الاصطناعي مخرجات معقدة استنادًا إلى خوارزميات مُعقدة، مما يجعل من الصعب على غير المتخصصين وحتى المهنيين القانونيين فهم النتائج والتحقق من صحتها. هذا النقص في الشفافية يمكن أن يثير شكوكًا حول دقة وموثوقية الأدلة المحسنة بواسطة الذكاء الاصطناعي.

وعلاوة على ذلك، الانحياز في خوارزميات الذكاء الاصطناعي مصدر قلق كبير. يتم تدريب النماذج التعليمية الآلية على البيانات القائمة، مما يمكن أن يدعم الانحيازات والتحيزات الموجودة في بيانات التدريب. وهذا يمكن أن يؤدي إلى نتائج محايدة في الأدلة المحسنة بواسطة الذكاء الاصطناعي، مما يؤكد الفجوات القائمة في النظام القضائي للعدالة الجنائية.

ولمعالجة هذه القضايا، يدعو المجتمع القانوني إلى وضع معايير وإرشادات صارمة لاستخدام تقنية الذكاء الاصطناعي في الإجراءات القانونية. يشددون على ضرورة استخدام أساليب تمت مراجعتها من قبل الأقران والتحقق من طرف ثالث، والإرشادات لضمان شفافية ومصداقية وعدالة النظم الذكاء الاصطناعي المستخدمة لتحسين الأدلة.

— Sources:
[رابط ن ب س](https://www.nbcnews.com)

لمزيد من المعلومات حول تقنية الذكاء الاصطناعي في القطاع القانوني والموضوعات ذات الصلة، يمكنك زيارة مصادر موثوقة مثل موقع الجمعية الأمريكية للمحامين [الجمعية الأمريكية للمحامين](https://www.americanbar.org) أو موقع الجمعية الدولية للذكاء الاصطناعي والقانون [الجمعية الدولية للذكاء الاصطناعي والقانون](https://www.iaail.org). هذه المصادر تقدم رؤى قيمة حول المناقشات والتطورات المستمرة في هذا المجال.

The source of the article is from the blog yanoticias.es

Privacy policy
Contact