تازهترین مقرراتی که توسط دولت ایالات متحده برای نظارت بر استفاده ادارات فدرال از سامانههای هوش مصنوعی (AI) معرفی شده است، هدفشان محافظت در برابر مخاطرات دیسکریمیناسیون و نظارتی که با تکنولوژی AI همراه است میباشد. گفته شده است که مقررات حاضر حفاظت جامعی ارائه میدهند ولی ادارات را از رد مدیریتی کلیدیترین مددونهها بیگانه میسازند. این مقاله به نیاز به تعادل دقیق میان اعطای خودخواهی به ادارات و اطمینان از اثربخشی سیاستهای AI پرداخته است.
مذکور است که یادواره دفتر مدیریت و بودجه، دستورنامهای با عنوان “روشهای کمترین کاهنده خطرات” ارائه کرده است که ادارات ملزم هستند پیش از پیادهسازی سیستمهای AI رعایت کنند. این روشها شامل ارزیابی تأثیر که مخاطرات ممکن به جوامع خدمتنشده، ارزیابی مناسبیت AI برای وظایف خاص، و مانیتورینگ دائمی عملکرد در جهان واقعی است. عدم احترام به این تمرینات یا کشف نقضهای ایمنی یا حقوق به ممنوعیت استفاده از AI میانجامد. یادواره بر اولویت قرار دادن تضمین محافظت در برابر صدمات الگوریتمی دارد.
با این حال، دامنه گستردهای که به ادارات برای عبور از این مقررات از طریق اعطاء مجوزها و ممنوعیتها اعطا شده، به نفع قوی بشر این مقررات است. معیارهای دوپهلو مانند افزایش ممکن خطرات برای امنیت یا حقوق در کلی میتواند به سو سو استفاده از اختیارات بیشکاری منجر شود. به علاوه، نقاط ضعف مکتبهایی که امکان معافیت در صورت عدم ملاحظه AI به عنوان “مبنای اصلی” تصمیمگیری هستند، به یاد پنجخیزهها که موازی آنها از سرکوب مقررات تبعیضی AI کم کردهاند، میاندازد. این واقعهنگاریهای قانونگذاری یک سری بسته دیانونی را پس میگذارد، نظیر اینکه الگوریتمهای تشخیص چهره منجر به سرپوشی نسلی در مواجهه با پناهندگان شبه سیاهپوست و الگوریتمهای پیشبینی تصمیمات آزادی مرتبط با رهایی زندانیان فدرال تحتتاثیر نبودهاند.
علاوه بر این، قدرت تصمیم گیری برای معافیت از تمرینات کمینه تنها در اختیار رئیس افسانهای ادارات برای هوش مصنوعی (CAIOs) است. در حالی که این افسران مسئول نظارت بر استفاده از AI هستند، ضعفهای مکتبهای خودنظارتی ادارات مانند مکاتب حقوقی و شهروندی کمکاری، تهدید ساختار نظارتی مؤثر است. اختیاری رهبری توسط CAIOs نهایی و وابسته به اعتراض نیست، مسائلی را به شکل مسئلهزی میآورد که در مورد حسابرسی و شفافیت نگرانیها را بالا میبرد.
برای بهبود اثربخشی یادواره OMB، پیشنهاد میشود که ادارات فدرال مجوز و ممنوعیت را به شرایط استثنایی محدود کنند. اولویت و ترجیح محمرود از روی تشکر عمومی به جای دلاوری و پنهانی است. ادارات باید توضیحات روشنی را در مورد تصمیماتی که درباره معافیتها یا ممنوعیتها انجام شده است فراهم کنند. یادواره مدیریت و بودجه باید در صورت سوءاستفاده از مجوزها و ممنوعیتها تصمیمگیری کرده و ارزیابی مجدد کند. در نهایت، مسئولیت نهایی بر اجرای حفاظتهای کلی AI با کنگره است. قانونگذاران قدرت پایا کردن حفاظتهای تفصیلی را در قانون و ایجاد مکانیزمهای مستقل نظارت میتوانند داشته باشند. با توجه به صدمات ممکنی که تکنولوژی AI بر عهده دارد، به ماندن گسترده انحصارها در جایگاه خطرناک است.
**استفسارات متداول**:
**س: اصول اصلی مقررات جدید AIیائی که توسط کاخ سفید تحت فشار وضعی شدهاند چیست؟**
**ج: مقررات ملزم به انجام ارزیابیهای تأثیر، ارزیابی مناسبت AI برای وظایف خاص، و نظارت مداوم بر اجرای جهان واقعی به منظور کاهش ریسکها به جوامع خدمتنکرده و حقوق افراد نیست.
**س: چگونه اختیارات گسترده و معافیتهای اعطا شده به ادارات مقررات را از پایین میآورند؟**
**ج: اختیاراتی که از طریق امتیازات و ممنوعیتها به ادارات اعطا میشود قابل سواهی است، و نقاط ضعفی که اعفاهای اعمال میشود بر اساس نقش AI در تصمیمگیری تاریخی مقررات را کاهش دادهاند.
**س: چند مثال از نقصهای پیادهکنی بهکار بردن AI توسط ادارات دولتی؟**
**ج: الگوریتمهای نابرشیبی شناسایی چهره موجب تأمین نسلی نامنصف پناهندگان سیاهپوست شده است و الگوریتمهای AI پیشبینی تصمیمهای جانبدارانه در مورد آزادی مرتبط با رهایی زندانیان فدرال در دستبردهای انجامادهاند. علاوه بر این، الگوریتمهای بهکاربرده در برنامههای بهداشتی منجر به محرومیتهای خالی از سابقه هوش مصنوعی در حمایتهای خانگی برای افراد آسیبپذیر گردیدهاند.
**س: نقش رؤسای مصنوعی بر صدق AIاستفادهگری است؟**
**ج: CAIOs مسئول تصمیمگیری در مورد معافیتها و ممنوعیتها هستند و مفروض است که تصمیمات خود را به دفتر مدیریت و بودجه گزارش کنند. با این حال، ضعفهایی در مکتبهای خودنظارتی ادارات میتوانند مانع از توانمندی آنها به ارائه نظارت مؤثر شوند.
**س: چگونه میتوان به این خطاها در مقررات AI پرداخت؟**
**ج: ادارات باید محدودیتها و ممنوعیتها را به حصریتهای استثنایی محدود کنند و به اولویت اعتماد عمومی نسبت به سرعت و پنهانی ترجیح دهند. یادواره مدیریت و بودجه باید تصمیمات را مستعرض کرده و ارزیابی کند اگر ممنوعیت و مجوزها سوءاستفاده شوند. در نهایت، کنگره باید حفاظتهای جامع AI را در قانون کدیفای و مکانیزمهای نظارتی مستقل تأسیس کند. با توجه به احتمال صدمات تکنولوژی AI، ترک شکافهای گستردهای در مکان قراردادن ریسک است.
The source of the article is from the blog girabetim.com.br