OpenAI معیارهای مدل هوش مصنوعی اخلاقی معرفی می‌کند

بلوپرینت به اشتراک گذاری شده توسط OpenAI برای هوش مصنوعی مسئول

OpenAI یک سند پیشرو که به عنوان بلوپرینتی برای ایجاد سیستم‌های هوش مصنوعی (AI) اخلاقی و مسئولانه به اشتراک گذاشته است. این سند عوامل بسیاری را که AI باید در نظر بگیرد هنگام پاسخ به پرسش‌های کاربران رد می‌کند، از بهره‌مندی برای بین‌الملل و رعایت تطابق با قوانین تا احترام به ایجادکنندگان و حقوق آنان. OpenAI اعلام کرده که تمام مدل‌های AI از جمله GPT، Dall-E و Sora که به زودی منتشر خواهد شد، بر اساس اصول رفتاری این بلوپرینت پیروی خواهند کرد.

مدل نوآورانه Spec راه را برای تحقیقات اخلاقی AI باز می‌کند

در چیزی که OpenAI به عنوان مدل Spec اشاره می‌کند، شرکت آن را به عنوان مجموعه‌ای از رهنمودها می‌بیند که طراحان و اعضای داده در ایجاد داده‌ها از تکنولوژی Reinforcement Learning from Human Feedback (RLHF) استفاده می‌کنند. هر چند این مشخصات هنوز به صورت فعلی به کار گرفته نشده‌اند، اما بنیاداً بر اسناد استفاده شده‌که پیش‌تر در OpenAI در RLHF به کار گرفته شده بنا شده‌اند. علاوه بر این، OpenAI در حال توسعه تکنیک‌هایی است که به مدل‌هایش اجازه می‌دهد که مستقیماً از این مشخصات مدل یاد بگیرند.

اجرای قوانین سخت‌گیرانه برای سیستم‌های پیشرفته هوش مصنوعی

برخی از قوانین مهم که توضیح داده شده است شامل سلسله مراتب دستوراتی است که اطمینان می‌دهد که AI نمی‌تواند دستورات توسعه‌دهنده را نادیده کند، رعایت قوانین موجود، احترام به ایجادکنندگان و حقوق آنان و حفظ حریم شخصی فردی. یک قانون خاص نیز از AI خواسته است که اطلاعاتی را فراهم نکند که خطرات شیمیایی، زیست‌شناسی، پرتوزا یا هسته‌ای (CBRN) ایجاد کند.

علاوه بر این، پیش نویس مجموعه‌ای از کدهای رفتاری پیش‌فرض برای هر مدل AI مشخص می‌کند. این شامل فرض می‌شود بهترین نیت‌ها از کاربران و یا توسعه‌دهندگان، پرسیدن سوال‌های توضیحی، کمک بدون دست‌کشی، حفظ دیدگاه‌های ا客یانه، امتناع از تلاش برای تغییر نظرات، بیان ابهام و دیگر رفتارهای احترام‌آمیز و غیر تجاوزآمیز می‌شود.

مشخصات AI با ورود مداوم در حال تحول است

البته مدل Spec تنها نقطه مرجع OpenAI نیست. این مجموعه‌ای از سیاست‌های استفاده شرکت است که تعیین می‌کند چگونه انتظار می‌رود افراد از API و محصول ChatGPT استفاده کنند. OpenAI تأکید می‌کند که همان‌طور که مدل‌هایش، مشخصات دینامیک هستند و به مرور زمان تحول می‌کنند، که تحت تأثیر مشارکت فعال با بازخورد کاربران و سهام‌داران است.

پرسش‌ها و پاسخ‌های کلیدی:

1. اهداف اصلی مدل Spec OpenAI چیست؟
اهداف اصلی شامل اطمینان از اینکه سیستم‌های AI از نظر اخلاقی رفتار می‌کنند، به استانداردهای قانونی پایبندند، به ایجادکنندگان و حقوق آن‌ها احترام بگذارند و محافظت از حریم شخصی افراد می‌شود.

2. چگونه OpenAI قصد دارد این رهنمودها را اعمال کند؟
OpenAI قصد دارد تکنیک‌هایی توسعه دهد که به مدل‌های AI خود، مانند GPT و Dall-E، اجازه دهد که مستقیماً از مدل Spec با استفاده از Reinforcement Learning from Human Feedback (RLHF) یاد بگیرند.

3. آیا OpenAI قوانین خاصی برای رفتار AI مشخص کرده است؟
بله، قوانین شامل رعایت سلسله مراتب دستوری، رعایت قوانین موجود، احترام به ایجادکنندگان و حقوق آن‌ها، حفظ حریم خصوصی و جلوگیری از انتشار اطلاعاتی است که ممکن است منجر به خطرات CBRN شود.

4. آیا مدل Spec ثابت خواهد ماند یا به مرور زمان تغییر خواهد کرد؟
مدل Spec پویا است و با بازخورد کاربران و سهام‌داران و همچنین مشارکت مداوم تحت تأثیر تحول خواهد کرد.

چالش‌ها و اختلافات:

اجرا: اطمینان حاصل کردن از اینکه سیستم‌های AI به صورت مداوم به دستورالعمل‌های اخلاقی پایبند باشند و تعیین کردن چه اقداماتی باید انجام شود وقتی که انحراف‌ها روی دهند.

طبیعت پویا: به‌روزرسانی مداوم رهنمودهای اخلاقی مدل AI به پاسخ چالش‌ها، تکنولوژی‌ها و معیارهای اجتماعی جدید.

تبعیض و تبعیض: روی‌آوردن به مسئله تبعیضی ذاتی در سیستم‌های AI و اطمینان حاصل کردن از اینکه رهنمودهای اخلاقی کافی برای جلوگیری از روش‌های تبعیض‌آمیز است.

مزایا:

افزایش اعتماد: رهنمودهای اخلاقی باعث افزایش اعتماد مردم و دولت‌ها به فناوری‌های AI می‌شوند.

افزایش ایمنی: چنین رهنمود‌هایی هدف دارند که با مخاطرات مرتبط با AI پیشرفته مقابله شود و از سوءاستفاده جلوگیری کند.

امتثال اجتماعی و قانونی: اطمینان حاصل کردن از اینکه سیستم‌های AI با قوانین موجود کاملاً اجتماعی تطابق دارند و به حقوق و حریم خصوصی افراد احترام بگذارند.

معایب:

فرجام سرکند گشایی ابتکار: قوانین سخت‌گیرانه ممکن است پژوهش و نوآوری را در زمینه هوش مصنوعی به اندازه کافی کند.

محدودیت‌های ظرفیت AI: محدودیت‌های اخلاقی ممکن است ظرفیت‌های کامل مدل‌های AI را برای حل مسائل پیچیده محدود کنند.

برای کسب اطلاعات بیشتر در زمینه اخلاق هوش مصنوعی و توسعه AI مسئول، ممکن است این حوزه‌ها را مرتبط بدانید:
OpenAI
AIEthicsLab
Partnership on AI
AI Now Institute

Privacy policy
Contact