تقييم دقة أدوات الذكاء الاصطناعي في البحث القانوني

الممارسون في المجال القانوني يقبلون على أدوات تعتمد على الذكاء الاصطناعي للبحث القانوني، لكن هناك مخاوف قد ارتفعت بشأن إمكانية أن تنتج هذه الأدوات “هلاوس” زائفة – معلومات خاطئة ضمن نتائجها. أظهرت دراسة بعنوان “خالية من الهلاوس؟ تقييم موثوقية الأدوات القانونية البحثية الذكاء الاصطناعي الرائدة”، كما أفادت وكالة أجر بريس، على هذه المسألة.

تتأتى البحوث، التي تنبع من منشورات جامعة ستانفورد، لفحص استخدام نماذج اللغة المعقدة في أدوات الذكاء الاصطناعي التي يستخدمها المحامون في أغراض البحث، كاشفة عن إمكانيتها في توليد هذه العدميات. وعبر أصحاب الدراسة عن تحفظات بشأن الادعاءات التي تقدم بها الشركات المصنعة للأدوات الذكية، التي تؤكد أنها قد عالجت مشكلة الهلاوس، ووصفوا هذه الادعاءات بأنها “مبالغ فيها”.

أثناء فحص الأدوات المعروفة من شركتي لكسيس نيكسيس وتومسون رويترس، اكتشفوا أخطاء في 17% إلى 33% من الحالات. وكانت هذه الأخطاء تتضمن الإشارة إلى قوانين غير موجودة وسوء تفسير الأسس القضائية.

يلقى أهمية المشكلة بالضوء على حقيقة أنه، بدءًا من يناير 2024، بدأت على الأقل 41 من أكبر 100 مكتب محاماة في الولايات المتحدة استخدام الذكاء الاصطناعي في ممارستهم. وهذا التوجه يمثل تحولًا في كيفية إجراء العمل القانوني ودقة الإرشاد القانوني الذي يتم تقديمه للعملاء.

حث الكتاب المحامين على استعراض النتائج التي تولّدها أدوات الذكاء الاصطناعي بحرص والتحقق منها. كما دعوا مطوري هذه الأدوات ليكونوا شفافين بشأن دقة منتجاتهم وتوفير الأدلة التي تدعم مدعاهم بالدقة، لحماية نزاهة البحث القانوني والممارسة القانونية.

Privacy policy
Contact