بلوپرینت به اشتراک گذاری شده توسط OpenAI برای هوش مصنوعی مسئول
OpenAI یک سند پیشرو که به عنوان بلوپرینتی برای ایجاد سیستمهای هوش مصنوعی (AI) اخلاقی و مسئولانه به اشتراک گذاشته است. این سند عوامل بسیاری را که AI باید در نظر بگیرد هنگام پاسخ به پرسشهای کاربران رد میکند، از بهرهمندی برای بینالملل و رعایت تطابق با قوانین تا احترام به ایجادکنندگان و حقوق آنان. OpenAI اعلام کرده که تمام مدلهای AI از جمله GPT، Dall-E و Sora که به زودی منتشر خواهد شد، بر اساس اصول رفتاری این بلوپرینت پیروی خواهند کرد.
مدل نوآورانه Spec راه را برای تحقیقات اخلاقی AI باز میکند
در چیزی که OpenAI به عنوان مدل Spec اشاره میکند، شرکت آن را به عنوان مجموعهای از رهنمودها میبیند که طراحان و اعضای داده در ایجاد دادهها از تکنولوژی Reinforcement Learning from Human Feedback (RLHF) استفاده میکنند. هر چند این مشخصات هنوز به صورت فعلی به کار گرفته نشدهاند، اما بنیاداً بر اسناد استفاده شدهکه پیشتر در OpenAI در RLHF به کار گرفته شده بنا شدهاند. علاوه بر این، OpenAI در حال توسعه تکنیکهایی است که به مدلهایش اجازه میدهد که مستقیماً از این مشخصات مدل یاد بگیرند.
اجرای قوانین سختگیرانه برای سیستمهای پیشرفته هوش مصنوعی
برخی از قوانین مهم که توضیح داده شده است شامل سلسله مراتب دستوراتی است که اطمینان میدهد که AI نمیتواند دستورات توسعهدهنده را نادیده کند، رعایت قوانین موجود، احترام به ایجادکنندگان و حقوق آنان و حفظ حریم شخصی فردی. یک قانون خاص نیز از AI خواسته است که اطلاعاتی را فراهم نکند که خطرات شیمیایی، زیستشناسی، پرتوزا یا هستهای (CBRN) ایجاد کند.
علاوه بر این، پیش نویس مجموعهای از کدهای رفتاری پیشفرض برای هر مدل AI مشخص میکند. این شامل فرض میشود بهترین نیتها از کاربران و یا توسعهدهندگان، پرسیدن سوالهای توضیحی، کمک بدون دستکشی، حفظ دیدگاههای ا客یانه، امتناع از تلاش برای تغییر نظرات، بیان ابهام و دیگر رفتارهای احترامآمیز و غیر تجاوزآمیز میشود.
مشخصات AI با ورود مداوم در حال تحول است
البته مدل Spec تنها نقطه مرجع OpenAI نیست. این مجموعهای از سیاستهای استفاده شرکت است که تعیین میکند چگونه انتظار میرود افراد از API و محصول ChatGPT استفاده کنند. OpenAI تأکید میکند که همانطور که مدلهایش، مشخصات دینامیک هستند و به مرور زمان تحول میکنند، که تحت تأثیر مشارکت فعال با بازخورد کاربران و سهامداران است.
پرسشها و پاسخهای کلیدی:
1. اهداف اصلی مدل Spec OpenAI چیست؟
اهداف اصلی شامل اطمینان از اینکه سیستمهای AI از نظر اخلاقی رفتار میکنند، به استانداردهای قانونی پایبندند، به ایجادکنندگان و حقوق آنها احترام بگذارند و محافظت از حریم شخصی افراد میشود.
2. چگونه OpenAI قصد دارد این رهنمودها را اعمال کند؟
OpenAI قصد دارد تکنیکهایی توسعه دهد که به مدلهای AI خود، مانند GPT و Dall-E، اجازه دهد که مستقیماً از مدل Spec با استفاده از Reinforcement Learning from Human Feedback (RLHF) یاد بگیرند.
3. آیا OpenAI قوانین خاصی برای رفتار AI مشخص کرده است؟
بله، قوانین شامل رعایت سلسله مراتب دستوری، رعایت قوانین موجود، احترام به ایجادکنندگان و حقوق آنها، حفظ حریم خصوصی و جلوگیری از انتشار اطلاعاتی است که ممکن است منجر به خطرات CBRN شود.
4. آیا مدل Spec ثابت خواهد ماند یا به مرور زمان تغییر خواهد کرد؟
مدل Spec پویا است و با بازخورد کاربران و سهامداران و همچنین مشارکت مداوم تحت تأثیر تحول خواهد کرد.
چالشها و اختلافات:
– اجرا: اطمینان حاصل کردن از اینکه سیستمهای AI به صورت مداوم به دستورالعملهای اخلاقی پایبند باشند و تعیین کردن چه اقداماتی باید انجام شود وقتی که انحرافها روی دهند.
– طبیعت پویا: بهروزرسانی مداوم رهنمودهای اخلاقی مدل AI به پاسخ چالشها، تکنولوژیها و معیارهای اجتماعی جدید.
– تبعیض و تبعیض: رویآوردن به مسئله تبعیضی ذاتی در سیستمهای AI و اطمینان حاصل کردن از اینکه رهنمودهای اخلاقی کافی برای جلوگیری از روشهای تبعیضآمیز است.
مزایا:
– افزایش اعتماد: رهنمودهای اخلاقی باعث افزایش اعتماد مردم و دولتها به فناوریهای AI میشوند.
– افزایش ایمنی: چنین رهنمودهایی هدف دارند که با مخاطرات مرتبط با AI پیشرفته مقابله شود و از سوءاستفاده جلوگیری کند.
– امتثال اجتماعی و قانونی: اطمینان حاصل کردن از اینکه سیستمهای AI با قوانین موجود کاملاً اجتماعی تطابق دارند و به حقوق و حریم خصوصی افراد احترام بگذارند.
معایب:
– فرجام سرکند گشایی ابتکار: قوانین سختگیرانه ممکن است پژوهش و نوآوری را در زمینه هوش مصنوعی به اندازه کافی کند.
– محدودیتهای ظرفیت AI: محدودیتهای اخلاقی ممکن است ظرفیتهای کامل مدلهای AI را برای حل مسائل پیچیده محدود کنند.
برای کسب اطلاعات بیشتر در زمینه اخلاق هوش مصنوعی و توسعه AI مسئول، ممکن است این حوزهها را مرتبط بدانید:
– OpenAI
– AIEthicsLab
– Partnership on AI
– AI Now Institute