OpenAI يقدم إرشادات النموذج الأخلاقي للذكاء الاصطناعي

تقاسم أوبين إيه آي مخططاً لذكاء اصطناعي مسؤول

كشفت OpenAI عن مسودة مبتكرة تعتبر نموذجاً لإنشاء أنظمة ذكاء اصطناعي (AI) أخلاقية ومسؤولة. تحدد هذه المسودة العوامل العديدة التي يجب على الذكاء الاصطناعي مراعاتها عند الاستجابة لاستفسارات المستخدمين، بدءًا من الفائدة للبشرية والامتثال للقوانين وصولاً إلى احترام الخالقين وحقوقهم. أكدت أوبين إيه أن جميع نماذجها للذكاء الاصطناعي بما في ذلك GPT و Dall-E و “سورا” التي ستصدر قريبًا ستلتزم بهذه المبادئ السلوكية.

النموذج المبتكر مخصص لدراسة الذكاء الاصطناعي الأخلاقي

فيما يُشير إليه OpenAI بالنموذج المحدد، ترى الشركة أنه مجموعة من الإرشادات المصممة لتشكيل كيفية تعامل الباحثين ومحددي البيانات في إنشاء البيانات من خلال تقنية تعرف باسم التعلم التكافلي من ردود الفعل البشرية (RLHF). بينما لم يتم تطبيق هذه المواصفات بالشكل الحالي، إلا أنها معتمدة على وثائق استخدمت فيما سبق في RLHF في OpenAI. بالإضافة إلى ذلك، تعمل أوبين إيه على تطوير تقنيات تتيح لنماذجها أن تتعلم مباشرة من هذه المواصفات.

تطبيق قواعد صارمة لأنظمة الذكاء الاصطناعي المتقدمة

من بين القواعد الحيوية المفصلة هي هيكلة التحكم التي تضمن عدم قدرة الذكاء الاصطناعي على التجاوز لتعليمات المطور، وامتثاله للقوانين القائمة، واحترام الخالقين وحقوقهم، وحماية خصوصية الأفراد. تتضمن قاعدة معينة عدم تقديم المعلومات التي تشكل مخاطر كيميائية أو بيولوجية أو إشعاعية أو نووية (CBRN).

علاوة على ذلك، تضع المسودة مجموعة من رموز السلوك الافتراضية لأي نموذج للذكاء الاصطناعي. هذه تشمل افتراض أفضل النوايا من قبل المستخدمين أو المطوّرين، وطرح أسئلة توضيحية، ومساعدة دون تجاوز، والحفاظ على وجهات نظر موضوعية، والامتناع عن محاولة تغيير الآراء، والتعبير عن عدم اليقين، وسلوكيات أخرى احترامية غير مزاحمة.

تطوير مواصفات الذكاء الاصطناعي مع مدخلات مستمرة

من اللافت للنظر أن النموذج المحدد ليس النقطة المرجعية الوحيدة لـ OpenAI. فهو يتمم قوانين الاستخدام التي تحكم كيفية استخدام الناس لواجهة برمجة التطبيقات (API) ومنتج ChatGPT. تؤكد OpenAI فكرة أنه تمامًا مثل نماذجها، فإن المواصفات ديناميكية وستتطور باستمرار، مدفوعة بالمشاركة النشطة مع آراء المستخدمين وأصحاب المصلحة.

أسئلة رئيسية وأجوبتها:

1. ما هي الأهداف الرئيسية لنموذج أوبين إيه؟
الأهداف الرئيسية هي ضمان سلوك أنظمة الذكاء الاصطناعي بشكل أخلاقي، وامتثالها للمعايير القانونية، واحترام الخالقين وحقوقهم، وحماية خصوصية الأفراد، بالإضافة إلى جوانب سلوكية مسؤولة أخرى.

2. كيف ستفرض OpenAI هذه الإرشادات؟
تخطط OpenAI لتطوير تقنيات تمكن نماذجها للذكاء الاصطناعي، مثل GPT و Dall-E، من التعلم مباشرة من النموذج المحدد باستخدام التعلم التكافلي من ردود الفعل البشرية (RLHF).

3. هل هناك قواعد محددة لسلوك الذكاء الاصطناعي أشارت إليها OpenAI؟
نعم، تشمل القواعد الالتزام بتسلسل الأوامر، وامتثال القوانين، واحترام الخالقين وحقوقهم، وحماية الخصوصية، وتجنب نشر معلومات قد تؤدي إلى مخاطر CBRN.

4. هل سيبقى النموذج المحدد ثابتًا أم سيتغير مع مرور الوقت؟
النموذج المحدد ديناميكي وسيتطور، تحت تأثير تعليقات المستخدمين وأصحاب المصلحة بالإضافة إلى المشاركة المستمرة.

التحديات والجدل:

فرض القوانين: ضمان أن نظم الذكاء الاصطناعي تلتزم بشكل مستقر بالإرشادات الأخلاقية وتحديد الإجراءات التي يجب اتخاذها عند وقوع انحرافات.

الطبيعة الديناميكية: تحديث الإرشادات الأخلاقية لنماذج الذكاء الاصطناعي باستمرار استجابةً للتحديات الجديدة والتكنولوجيا والقيم المجتمعية.

التحيز والتمييز: التصدي لمشكلة التحيز الكامن في نظم الذكاء الاصطناعي وضمان أن الإرشادات الأخلاقية تكون قوية بما يكفي لمنع الممارسات التمييزية.

المزايا:

زيادة الثقة: تسهم الإرشادات الأخلاقية في زيادة الثقة من الجمهور والحكومات في تكنولوجيا الذكاء الاصطناعي.

تعزيز السلامة: تستهدف هذه الإرشادات التقليل من المخاطر المرتبطة بالذكاء الاصطناعي المتقدم ومنع السوء استخدامه.

الامتثال الاجتماعي والقانوني: ضمان أن نظم الذكاء الاصطناعي تلتزم بالقوانين القائمة وتحترم حقوق وخصوصية الأفراد.

العيوب:

التقييد الكامل للابتكار: يمكن أن تؤدي القواعد الصارمة إلى إبطاء البحث والابتكار في مجال الذكاء الاصطناعي.

القيود على قدرات الذكاء الاصطناعي: يمكن أن تحد القيود الأخلاقية من كامل قدرات أنظمة الذكاء الاصطناعي لحل المشكلات المعقدة.

لمزيد من المعلومات حول أخلاقيات الذكاء الاصطناعي وتطوير الذكاء الاصطناعي المسؤول، قد تجد هذه النطاقات ذات صلة:
OpenAI
AIEthicsLab
Partnership on AI
AI Now Institute

Privacy policy
Contact