تصمیمات دادگاهی مبتنی بر اطلاعات به دست آمده از هوش مصنوعی جدیداً در دادگاههای ایالت واشنگتن برای آسانی عدالت به معرض انتقاد قرار گرفتهاند. در یک روزنامهنگاری بیسابقه، یک داور در ایالت واشنگتن استفاده از ویدیوهای تقویت شده توسط هوش مصنوعی (AI) را به عنوان شواهد در یک دادگاه کیفری ممنوع اعلام کرد. این تصمیم اولین نوع خودش در ایالات متحده است. تصمیم دادگاه عالی شهر کینگ لروی مککولوق که در روز جمعه منتشر شد، نگرش توجه بهمن و شفافیت فناوری هوش مصنوعی در مراحل قانونی را مورد تاکید قرار داد.
داور فعلی هوش مصنوعی تقویت شده را به عنوان “نوآورانه” توصیف کرد و ادعا کرد که این فناوری بر روشهای غیرقابل معرفی به منظور تفسیر و ارائه اطلاعات بصری بر اساس آنها بسیاری از مسایل قضایی بر نیاورده است. مککولوق نگرانیهایی را اعلام کرد که پذیرش شواهد تقویت شده توسط هوش مصنوعی میتواند احتمالاً موجب گیجی هیئت داوری و پیچیده شدن محاکمه شود با ایجاد بحثی ثانویه در مورد مدل AI بدون بررسی همتراز مورد استفاده جهت تولید ویدیوی تقویت شده.
به نظر میرسد این تصمیم سیاق زمانی را دارد که استفاده از فناوری هوش مصنوعی از جمله دیپفیک (ویدیوها یا تصاویر منتقی) در حال تحول سریع است. سیاستگذاران در سطح ایالتی و فدرال با ریسکهای احتمالی مرتبط با این تکنولوژیها سر و کار دارند. جوامع حقوقی به ویژه از دقت، قابلیت اعتماد و تعصب پتانسیلی مدلهای AI برای دستکاری شواهد بصری نگران هستند.
## سوالات متداول
س: تصمیم دادگاه در ایالت واشنگتن چه موضوعی را شامل میشود؟
ج: دادگاه بر خلاف استفاده از ویدیوهای تقویت شده توسط هوش مصنوعی به عنوان شواهده در یک پرونده کیفری تصمیم گرفت و نشان داد که روشهای نامعلوم این فناوری و احتمال تردیداتی میتواند فرایند محاکمه را تخریب کند.
س: چرا تیم دفاع میخواستند شواهد ویدیویی تقویت شده توسط هوشمصنوعی را معرفی کنند؟
ج: تیم دفاع ادعا کرد که ویدیوی تقویت شده ادعای خوددفاعشان را با ارائه تصویر روشنتری از واقعههای منجر به قتل سهگانه پشتیبانی میکرد.
س: چه مخاوفی از طرف داور درباره شواهد تقویت شده توسط هوش مصنوعی مطرح شد؟
ج: داور به نگرش به عدم بررسی همتراز و توضیحاتی در مدل AI مورد استفاده برای بهبود ویدیو نیاورده بود که میتواند منجر به اختلافات و حواشی در حین محاکمه شود.
س: چه علایقی در مورد شواهد تقویت شده توسط هوش مصنوعی وجود دارد؟
ج: انتقادکنندگان بر این باورند که شواهد تقویت شده توسط هوش مصنوعی ممکن است نتایج نادرست و تبعیضآمیزی ایجاد کنند. آنها همچنین باور دارند که نیاز به تحقیقات بیشتر و روشهای مورد بررسی نیاز است تا اعتبار این فناوری در محیطهای حقوقی تضمین شود.
س: سیاستگذاران چگونه با ریسکهای مرتبط با تکنولوژیهای هوش مصنوعی برخورد میکنند؟
ج: سیاستگذاران در سطح ایالتی و فدرال در حال حاضر با خطرات احتمالی تکنولوژیهای هوش مصنوعی مبارزه میکنند، از جمله گسترش دیپفیک و نیاز به تنظیماتی برای مدیریت این ریسکها.
منبع: NBC News
علاوه بر جزئیات فراهم شده در مقاله، اهمیت پیشبینیها و بازار مرتبط با فناوریهای AI در روند دادگاهها بسیار ویژه است. صنعت AI به سرعت در حال رشد است و برنامههای کاربردی آن از زمینه بهداشت تا امور مالی گسترش یافته و سیستم عدالت نیز در حال بررسی ادغام فناوریهای AI است.
طبق یک گزارش تحقیقات بازار از MarketsandMarkets، بازار هوش مصنوعی در حوزه قانونی تا سال 2024 از ۱.۲۳ میلیارد دلار بهرههایی را رقم خواهد زد، با نرخ رشد سالانه مترکب (CAGR) ۳۱.۳٪ از ۲۰۱۹ تا ۲۰۲۴. این نشانگر یک پتانسیل بازار قابل توجه برای راهحلهای هوش مصنوعی در بخش حقوقی است، از جمله استفاده از شواهدهای تقویت شدهتوسط AI.
با اینحال، چندین مشکل و چالش مرتبط با استفاده از هوش مصنوعی در مراحل قانونی وجود دارد. شفافیت و تحلیلپذیری مدلهای AI نگرانیهای اساسی هستند. سیستمهای AI عموماً خروجیهای پیچیدهای را ایجاد میکنند براساس الگوریتمهای پیچیده، که برای غیر تخصصیها و حتی حقوقدانان دشوار است با نتایج موافقت کنند و اعتبار نتایج را تایید کنند. این عدم شفافیت میتواند شکوههایی درباره دقت و قابل اعتمادی شواهدهای تقویت شده توسط AI ایجاد کند.
علاوه بر این، تعصب در الگوریتمهای AI یک نگرانی مهم است. مدلهای یادگیری ماشین بر روی دادههای موجود آموزش داده شدهاند که میتواند تعصبات و تبعیضات موجود در دادههای آموزش را تداوم بخشد. این میتواند به نتایج تعصبآمیز در شواهدهای تقویت شده توسط AI منجر شود و اختلافات موجود در سیستم عدالت کیفری را تقویت کند.
برای رفع این موارد، جامعه حقوقی از استانداردها و رهنمودهای سختگیرانه برای استفاده از AI در مراحل قانونی خواستار شدهاند. آنها بر تأکید بر مورد بررسیهای همتراز، اعتبارسنجی شخص سوم و رهنمودهای لازم برای تضمین شفافیت، قابل اعتمادی و عدالت سامانههای AI استفاده شده برای ارتقاء شواهدها تأکید دارند.
باید توجه داشت که این تصمیم در ایالت واشنگتن میتواند بهعنوان یک نقطه اعتبار برای پروندههای مشابه در سراسر ایالات متحده باشد. دیگری دادگاهها این تصمیم را در نظر خواهند گرفت زمانی که پذیرفتنی بودن شواهدهای تقویت شده توسط AI را ارزیابی میکنند.
برای کسب اطلاعات بیشتر در حوزه هوش مصنوعی در بخش حقوقی و موضوعات مرتبط، شما میتوانید به منابع موثقی مانند وبسایت American Bar Association به صفحه اصلی American Bar Association یا وبسایت انجمن بینالمللی هوش مصنوعی و حقوق به صفحه هدایت شوید International Association for Artificial Intelligence and Law. این منابع بینشهای ارزشمندی را در مورد گفتگوها و پیشرفتهای مستمر در این زمینه ارائه میدهند.
[ویدیو](https://www.youtube.com/watch?v=_y_CCiwKzQw)
The source of the article is from the blog tvbzorg.com