تأمین‌کننده جلوگیری از خطاها در سیاست هوش مصنوعی در ایالات متحده: تعادل بین اختیار و حفاظت

تازه‌ترین مقرراتی که توسط دولت ایالات متحده برای نظارت بر استفاده ادارات فدرال از سامانه‌های هوش مصنوعی (AI) معرفی شده است، هدفشان محافظت در برابر مخاطرات دیسکریمیناسیون و نظارتی که با تکنولوژی AI همراه است می‌باشد. گفته شده است که مقررات حاضر حفاظت جامعی ارائه می‌دهند ولی ادارات را از رد مدیریتی کلیدی‌ترین مددونه‌ها بیگانه می‌سازند. این مقاله به نیاز به تعادل دقیق میان اعطای خودخواهی به ادارات و اطمینان از اثربخشی سیاست‌های AI پرداخته است.

مذکور است که یادواره دفتر مدیریت و بودجه، دستورنامه‌ای با عنوان “روش‌های کمترین کاهنده خطرات” ارائه کرده است که ادارات ملزم هستند پیش از پیاده‌سازی سیستم‌های AI رعایت کنند. این روش‌ها شامل ارزیابی تأثیر که مخاطرات ممکن به جوامع خدمت‌نشده، ارزیابی مناسبیت AI برای وظایف خاص، و مانیتورینگ دائمی عملکرد در جهان واقعی است. عدم احترام به این تمرینات یا کشف نقض‌های ایمنی یا حقوق به ممنوعیت استفاده از AI می‌انجامد. یادواره بر اولویت قرار دادن تضمین محافظت در برابر صدمات الگوریتمی دارد.

با این حال، دامنه گسترده‌ای که به ادارات برای عبور از این مقررات از طریق اعطاء مجوزها و ممنوعیت‌ها اعطا شده، به نفع قوی بشر این مقررات است. معیارهای دوپهلو مانند افزایش ممکن خطرات برای امنیت یا حقوق در کلی می‌تواند به سو سو استفاده از اختیارات بیش‌کاری منجر شود. به علاوه، نقاط ضعف مکتب‌هایی که امکان معافیت در صورت عدم ملاحظه AI به عنوان “مبنای اصلی” تصمیم‌گیری هستند، به یاد پنجخیزه‌ها که موازی آنها از سرکوب مقررات تبعیضی AI کم کرده‌اند، می‌اندازد. این واقعه‌نگاری‌های قانون‌گذاری یک سری بسته دیانونی را پس می‌گذارد، نظیر اینکه الگوریتم‌های تشخیص چهره منجر به سرپوشی نسلی در مواجهه با پناهندگان شبه سیاه‌پوست و الگوریتم‌های پیش‌بینی تصمیمات آزادی مرتبط با رهایی زندانیان فدرال تحت‌تاثیر نبوده‌اند.

علاوه بر این، قدرت تصمیم گیری برای معافیت از تمرینات کمینه تنها در اختیار رئیس افسانه‌ای ادارات برای هوش مصنوعی (CAIOs) است. در حالی که این افسران مسئول نظارت بر استفاده از AI هستند، ضعف‌های مکتب‌های خودنظارتی ادارات مانند مکاتب حقوقی و شهروندی کم‌کاری، تهدید ساختار نظارتی مؤثر است. اختیاری رهبری توسط CAIOs نهایی و وابسته به اعتراض نیست، مسائلی را به شکل مسئله‌زی می‌آورد که در مورد حسابرسی و شفافیت نگرانی‌ها را بالا می‌برد.

برای بهبود اثربخشی یادواره OMB، پیشنهاد می‌شود که ادارات فدرال مجوز و ممنوعیت را به شرایط استثنایی محدود کنند. اولویت و ترجیح محمرود از روی تشکر عمومی به جای دلاوری و پنهانی است. ادارات باید توضیحات روشنی را در مورد تصمیماتی که درباره معافیت‌ها یا ممنوعیت‌ها انجام شده است فراهم کنند. یادواره مدیریت و بودجه باید در صورت سوءاستفاده از مجوزها و ممنوعیت‌ها تصمیم‌گیری کرده و ارزیابی مجدد کند. در نهایت، مسئولیت نهایی بر اجرای حفاظت‌های کلی AI با کنگره است. قانون‌گذاران قدرت پایا کردن حفاظت‌های تفصیلی را در قانون و ایجاد مکانیزم‌های مستقل نظارت می‌توانند داشته باشند. با توجه به صدمات ممکنی که تکنولوژی AI بر عهده دارد، به ماندن گسترده انحصارها در جایگاه خطرناک است.

**استفسارات متداول**:

**س: اصول اصلی مقررات جدید AIیائی که توسط کاخ سفید تحت فشار وضعی شده‌اند چیست؟**
**ج: مقررات ملزم به انجام ارزیابی‌های تأثیر، ارزیابی مناسبت AI برای وظایف خاص، و نظارت مداوم بر اجرای جهان واقعی به منظور کاهش ریسک‌ها به جوامع خدمت‌نکرده و حقوق افراد نیست.

**س: چگونه اختیارات گسترده و معافیت‌های اعطا شده به ادارات مقررات را از پایین می‌آورند؟**
**ج: اختیاراتی که از طریق امتیازات و ممنوعیت‌ها به ادارات اعطا می‌شود قابل سواهی است، و نقاط ضعفی که اعفاهای اعمال می‌شود بر اساس نقش AI در تصمیم‌گیری تاریخی مقررات را کاهش داده‌اند.

**س: چند مثال از نقص‌های پیاده‌کنی به‌کار بردن AI توسط ادارات دولتی؟**
**ج: الگوریتم‌های نابرشیبی شناسایی چهره موجب تأمین نسلی نامنصف پناهندگان سیاه‌پوست شده است و الگوریتم‌های AI پیش‌بینی تصمیم‌های جانبدارانه در مورد آزادی مرتبط با رهایی زندانیان فدرال در دستبردهای انجاماده‌اند. علاوه بر این، الگوریتم‌های به‌کاربرده در برنامه‌های بهداشتی منجر به محرومیت‌های خالی از سابقه هوش مصنوعی در حمایتهای خانگی برای افراد آسیب‌پذیر گردیده‌اند.

**س: نقش رؤسای مصنوعی بر صدق AIاستفاده‌گری است؟**
**ج: CAIOs مسئول تصمیم‌گیری در مورد معافیت‌ها و ممنوعیت‌ها هستند و مفروض است که تصمیمات خود را به دفتر مدیریت و بودجه گزارش کنند. با این حال، ضعف‌هایی در مکتب‌های خودنظارتی ادارات می‌توانند مانع از توانمندی آنها به ارائه نظارت مؤثر شوند.

**س: چگونه می‌توان به این خطاها در مقررات AI پرداخت؟**
**ج: ادارات باید محدودیت‌ها و ممنوعیت‌ها را به حصریت‌های استثنایی محدود کنند و به اولویت اعتماد عمومی نسبت به سرعت و پنهانی ترجیح دهند. یادواره مدیریت و بودجه باید تصمیمات را مستعرض کرده و ارزیابی کند اگر ممنوعیت و مجوزها سوءاستفاده شوند. در نهایت، کنگره باید حفاظت‌های جامع AI را در قانون کدیفای و مکانیزم‌های نظارتی مستقل تأسیس کند. با توجه به احتمال صدمات تکنولوژی AI، ترک شکاف‌های گسترده‌ای در مکان قراردادن ریسک است.

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact