فريق OpenAI للسلامة الذكية يُحلّ في ظل تحولات استراتيجية

بحسب مصادر مجهولة أكدت لقناة CNBC، قد قامت شركة OpenAI، وهي شركة رائدة في بحوث الذكاء الاصطناعي، بفك فريقها المكرس للتحدث عن المخاطر الطويلة المدى المرتبطة بالذكاء الاصطناعي. يأتي هذا التطور بعد نحو عام واحد فقط من إنشاء هذا الفريق المتخصص.

يُقال أن أعضاء الفريق الذي تم حلّه الآن تم توجيههم إلى قطاعات مختلفة داخل الشركة، مما يشير إلى هيكلة هامة. تم الكشف عن هذا الخبر بعد وقت قصير من تقرير وايرون الأولي وبعد رحيل إيليا سوتسكيفر، أحد مؤسسي OpenAI، وجان لايك، قائد الفريق.

عبر جان لايك علناً عن مخاوفه، قبل مغادرته الشركة، من ممارسات الشركة، مشيرًا إلى أنه قد تم تغيير الثقافة والبروتوكولات الخاصة بالسلامة بواسطة إغراء المنتجات التي تجذب الانتباه أكثر.

كان من واجب الفريق المنحل حالياً Superalignment في OpenAI التأكد من أن تطويرات الذكاء الصناعي التابعة للشركة ستظل مفيدة وقابلة للإدارة، حتى مع نموها في القدرة الفكرية. وفي وقت إعلانها، كانت OpenAI قد التزمت بتخصيص %20 من قدرتها الحسابية لهذا الغرض على مدى أربع سنوات – وهو التزام يبدو أنه فتل.

لم تصدر المنظمة بيانًا رسميًا بخصوص هذا الموضوع. بدلاً من ذلك، أشارت OpenAI إلى تغريدة حديثة للمؤسس المشارك والرئيس التنفيذي سام ألتمان يعبر فيها عن امتنانه لجان لايك على مساهماته واعترافه بضرورة بذل مزيد من الجهود في مجال توجيه الذكاء الصناعي والبحوث الخاصة بالسلامة.

لقد ألقى غريغ بروكمان، مؤسس مشارك آخر، كلمته على وسائل التواصل الاجتماعي لتسليط الضوء على تفاني الشركة في زيادة الوعي حول الفوائد المحتملة والمخاطر المحتملة للذكاء الاصطناعي العام (AGI)، حتى وهما يواصلان تنقيح استراتيجيتهم استناداً إلى الأحداث الأخيرة. تلت تصريحات بروكمان تصريحات لايك عن اختلاف الأولويات في العمليات الشركة ورؤيته الرائعة لفرض تأكيد أكبر على السلامة والتأثير الاجتماعي في سعيها وراء أنظمة AI المتفوقة.

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact