تقرير حديث كشف أن شركة OpenAI كانت تسرع في تطوير نماذج الذكاء الاصطناعي الجديدة دون الاهتمام ببروتوكولات السلامة وتدابير الأمان. وقد أثارت هذه المخاوف من قبل موظفين لم يكشف عن هويتهم والذين وقعوا على رسالة مفتوحة تعبر عن عدم الارتياح إزاء غياب رقابة في بناء نظم الذكاء الاصطناعي. ردًا على ذلك، أنشأت OpenAI لجنة جديدة للسلامة والأمان تضم أعضاء في مجلس الإدارة ومديرين مختارين لتقييم وتعزيز بروتوكولات السلامة.
على الرغم من اتهامات الإهمال في بروتوكولات السلامة، شارك ثلاثة موظفين في OpenAI، تحدثوا بشكل مجهول لصحيفة The Washington Post، أن الفريق شعر بالضغط لتسريع تنفيذ بروتوكول اختبار جديد مصمم “لمنع أنظمة الذكاء الاصطناعي من تسبب أضرارًا كارثية” لتلبية إطلاق جهاز GPT-4 Omni في مايو كما قرر قادة OpenAI.
تهدف بروتوكولات السلامة إلى ضمان عدم تقديم نماذج الذكاء الاصطناعي لمعلومات ضارة أو المساعدة في تنفيذ أفعال خطيرة مثل إنشاء أسلحة كيميائية وبيولوجية وإشعاعية ونووية (CBRN) أو المساعدة في هجمات القرصنة.
علاوة على ذلك، أظهر التقرير حادثًا مماثلًا حدث قبل إطلاق GPT-4o، ووصفت أنها أكثر نماذج الذكاء الاصطناعي تقدمًا في OpenAI. تمت إعداد خطط للإطلاق دون ضمان سلامته، حيث أورد موظف في OpenAI تصريحًا في التقرير يقول: “لقد فشلنا أساسيًا في هذه العملية.”
هذه ليست المرة الأولى التي يشير فيها موظفو OpenAI إلى الاستهتار الواضح ببروتوكولات السلامة والأمان داخل الشركة. الشهر الماضي، وقع موظفون سابقون وحاليون في OpenAI وGoogle DeepMind رسالة مفتوحة تعبر عن مخاوف حول غياب الرقابة في تطوير نظم الذكاء الاصطناعي الجديدة التي قد تشكل مخاطر كبيرة.
طالبت الرسالة بتدخل الحكومة وآليات تنظيمية وحماية دقيقة للمُبلغين عن خروقات جهود أرباب العمل. دعم اثنان من ثلاثة المؤسسين لشركة OpenAI، جيفري هينتون ويوشوا بنجيو، الرسالة المفتوحة.
في مايو، أعلنت OpenAI تشكيل لجنة جديدة للسلامة والأمان مكلفة بتقييم وتعزيز عمليات الذكاء الاصطناعي في الشركة وضمان اتخاذ قرارات مهمة بشأن السلامة والأمان لمشاريع وعمليات OpenAI. شاركت الشركة مؤخرًا في توجيهات جديدة لبناء نماذج الذكاء الاصطناعي المسؤولة والأخلاقية، والمعروفة باسم مواصفات النموذج.
كشف تقرير حديث تفاصيل إضافية بشأن المخاوف بشأن بروتوكولات السلامة في OpenAI، مسلطًا الضوء على الأسئلة والتحديات الرئيسية المحيطة بالمسألة.
أسئلة رئيسية:
1- ما هي البروتوكولات السلامة المحددة التي أهملتها OpenAI خلال تطوير نماذج الذكاء الاصطناعي؟
2- كيف تأثرت إجراءات السلامة بالضغط لتسريع تنفيذ بروتوكولات الاختبار الجديدة؟
3- ما هي المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي التي تفتقر إلى بروتوكولات سلامة وأمان كافية؟
4- كيف اقترح الموظفون وخبراء الصناعة معالجة المخاوف بشأن السلامة في OpenAI؟
5- ما هي مزايا وعيوب نهج OpenAI في إعطاء أولوية لتطوير نماذج الذكاء الاصطناعي على حساب بروتوكولات السلامة؟
تحديات وجدليات رئيسية:
– شعر موظفو OpenAI بالضغط لإيلاء أولوية لإطلاق نماذج الذكاء الاصطناعي الجديدة على ضمان بروتوكولات السلامة القوية، مما أثر على القلق من الأضرار الكارثية المحتملة.
– يمكن أن تؤدي الإهمال في بروتوكولات السلامة إلى قيام أنظمة الذكاء الاصطناعي بتقديم معلومات ضارة أو المشاركة في أفعال خطيرة، مثل تيسير إنشاء أسلحة أو هجمات قرصنة.
– يمكن أن يتسبب غياب الرقابة في بناء نظم الذكاء الاصطناعي في مخاطر ومعضلات أخلاقية كبيرة، مما يستدعي اهتمامًا فوريًا وتدخلًا.
– نداء الرقابة الحكومية، حماية المبلغين عن الخروقات وتحسين التدابير السلامة يعكس القلق المتزايد بشأن التطوير غير المراقب لتكنولوجيا الذكاء الاصطناعي.
مزايا:
– الإسراع في تطوير النماذج الإصطناعية الذكاء قد يؤدي إلى تقدمات ثورية في التكنولوجيا والابتكار.
– التزام OpenAI بتشكيل لجنة للسلامة والأمان يظهر نهجًا وقائيًا لمعالجة المخاوف من السلامة وتحسين البروتوكولات.
– إرشادات مواصفات النموذج الأخلاقية والمسؤولة الجديدة تشير إلى استعداد لإعطاء أولوية للاعتبارات الأخلاقية والسلامة.
عيوب:
– إهمال بروتوكولات السلامة في تطوير الذكاء الاصطناعي يشكل مخاطر كبيرة للمجتمع، مما قد تؤدي إلى نتائج غير مرغوبة ونتائج ضارة.
– ضغط تحقيق جدول مواعيد الإطلاق الطموحة قد يعرض تدابير السلامة للتهديد ويعيق التقييم الكامل للمخاطر.
– نقص الإشراف والمساءلة في بناء نظم الذكاء الاصطناعي قد يؤدي إلى تآكل الثقة العامة وزيادة الاهتمام بالقضايا الأخلاقية في مجال الذكاء الاصطناعي.
للمزيد من المعلومات حول أهمية بروتوكولات السلامة في تطوير الذكاء الاصطناعي والنقاشات المستمرة المحيطة بممارسات OpenAI، تفضل بزيارة موقع OpenAI الرسمي على الرابط التالي: OpenAI.