فريق التوافق الجماعي للذكاء الاصطناعي في OpenAI لرأي الجمهور حول نماذج الذكاء الاصطناعي

أعلنت OpenAI عن خطط لإنشاء فريق من الباحثين والمهندسين الذين سيشركون الجمهور في تشكيل سلوك نماذج الذكاء الاصطناعي الخاصة بها. يُعرف هذا الفريق بـ فريق التوافق الجماعي، وهدفه هو تطوير أنظمة تتضمن مدخلات الجمهور لتوجيه نماذج الذكاء الاصطناعي ومعالجة تحديات مثل الانقسام الرقمي والمجموعات المتطرفة وتمثيل التنوع والقلق المتعلق بحكم الذكاء الاصطناعي.

سيعمل الفريق جنبًا إلى جنب مع المستشارين الخارجيين والمستفيدين من المنح لاختبار إدماج نماذج المنح في نماذج OpenAI. الشركة تبحث بنشاط عن مهندسي بحوث لديهم خلفيات تقنية متنوعة للانضمام إلى الفريق والمساهمة في هذه المبادرة.

تأتي هذه الإعلانات بعد البرنامج العام السابق لـ OpenAI الذي تم إطلاقه في مايو من العام الماضي والذي منح 100,000 يورو لعشرة تجارب تستكشف “مدخلات ديمقراطية للذكاء الاصطناعي”. هدف البرنامج، كما هو ذكر من OpenAI، هو تعزيز عملية ديمقراطية لتحديد القواعد التي يجب أن تتبعها أنظمة الذكاء الاصطناعي.

في تطور حديث، أطلقت OpenAI الشفرة التي أنشأتها الفرق المشاركة في برنامج المنح، بالإضافة إلى ملخصات أعمالهم. خلال فترة البرنامج، عبر بعض المشاركين عن قلقهم بشأن استخدام الذكاء الاصطناعي في صنع السياسات ودعوا إلى الشفافية في تطبيقه في العمليات الديمقراطية. وبعد جلسات التداول، أفاد العديد من الفرق بزيادة الثقة في قدرة الجمهور على المساهمة في توجيه الذكاء الاصطناعي.

تسعى جهود OpenAI لجمع رأي الجمهور في عمليات اتخاذ القرار المتعلقة بالذكاء الاصطناعي إلى تعزيز الشفافية والشمولية. من خلال إدراج وجهات نظر متنوعة، يهدف فريق التوافق الجماعي إلى ضمان توافق نماذج الذكاء الاصطناعي مع القيم الاجتماعية وتقليل التحيزات المحتملة. يتيح هذا النهج الابتكاري لـ OpenAI التحول نحو نموذج حكم الذكاء الاصطناعي الديمقراطي والمسؤول، بقيادة الباحثين والمهندسين والجمهور.

Privacy policy
Contact