تأمین کننده استانداردهای اخلاقی و مسئول در آینده تنظیمات هوش مصنوعی

حوزه هوش مصنوعی (AI) در سال‌های اخیر پیشرفت‌های قابل توجهی را تجربه کرده است، این پیشرفت‌ها به سبب پیشرفت‌های انجام شده توسط چت‌بات‌ها مانند ChatGPT و تولیدکننده‌های تصویر مانند Midjourney بوده است. این فناوری‌ها علاوه بر جلب توجه گسترده، ظرفیت بسیار بزرگی را در بر خود دارند. با این حال، نگرانی‌ها اطراف کلاهبرداری و ایجاد تصاویر تقلبی موجب بررسی سؤالات اخلاقی مهم شده است.

یکی از مشکلات قابل توجه در صنعت AI با معرفی چت‌بات AI شرکت گوگل، Gemini، پدیدار شد. نتایج تولید شده توسط Gemini انتقاد‌هایی را به دنبال داشت که به نوع فرازیوری مبتنی بر اشتراکیت خاص، به ویژه در ارتباط با سیاست‌های دموکراتیک، بود. هنگامی که از Gemini خواسته شد تصاویری از سربازان آلمانی در سال 1943 ایجاد کند، Gemini تصاویری از یک زن آسیایی و یک مرد سیاه‌پوست به لباس‌های نظامی آلمانی تولید کرد. به طور مشابه، هنگامی که از آن برای ایجاد تصاویری از فیلسوفان یونانی پرسیده شد، تصاویری از زنان هندی و یک مرد آمریکایی بومی با برچسب “یونانی” بوجود آمد. به علاوه، Gemini از ایجاد تصاویری از “خانواده سفید” خودداری کرد و به مشکلات موجب شناسایی نژاد یا قومیت اشاره کرد، که این موضوع موجب نگرانی‌هایی در خصوص الگوریتم‌های تعصب‌آمیز گردید.

البته این نکات اشتباهات را می‌توان به ناظری های در بخش خصوصی نسبت داد، اما نگرانی اصلی در عدم وجود راهنماهای واضح از سوی کنگره در خصوص تنظیم هوش مصنوعی است. بدون تنظیمات گسترده، هوش مصنوعی ممکن است مورد تباهی در دستور بخش‌های مختلف دولت‌های ایالتی قرار گیرد یا قربانی اسراف‌کاری از سوی مأموران فدرال با دنیایجات سیاسی شوند. حیاتی است که کنگره این مشکلات را با تشکیل تنظیماتی گسترده برای استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی، مورد بررسی قرار دهد.

پرونده دادگاه عالی شناخته‌ شده به نام “دکترین Chevron” نقش حیاتی در شکل‌دهی به تنظیمات هوش مصنوعی را دارد. دکترین Chevron که در سال 1984 تشکیل شده است، وظایف مهمی به اداره فدرال می‌دهد؛ اجازه تعبیر قوانین فدرال. با توجه به اخبار اخیر، نشانه‌هایی دیده می‌شود که دادگاه عالی این تصمیم را تغییر دهد، که این موضوع باعث مسئولیت بیشتری بر کنگره برای تصویب قوانین و جلوگیری از تغییرات ناگهانی در سیاست‌ها بین دولت‌ها می‌شود.

تغییر در دکترین Chevron عواقب مثبتی برای تنظیمات هوش مصنوعی خواهد‌داشت. اداره‌های فدرال کمتر به تصدیق دستورات قرار می‌دهند اگر بدانند که مورد بازبینی قضایی قرار می‌گیرند. این به پایین آوردن پویایی در سیاست‌گذاری را تسهیل خواهد کرد که اطمینان می‌دهد که کنگره – نه قوه اجرایه – به محکمیت در شکل‌دهی تنظیمات هوش مصنوعی مشغول باشد.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact