القلق يثور مع حل فريق السلامة الرئيسي للذكاء الاصطناعي في OpenAI

تأسست شركة OpenAI، الشركة الناشئة الرائدة في الولايات المتحدة وراء انتعاش الذكاء الاصطناعي الذي أغرق ChatGPG، في موقف منتصب بين مخاوف متزايدة حول موقفها تجاه مخاطر الذكاء الاصطناعي. تأتي هذه المخاوف في أعقاب إلغاء الشركة لما كان يعرف بـ “فريق التوجيه الخارق”، وهي حقيقة تم الإبلاغ عنها من قبل عدة وسائل إعلام أمريكية في 17 مايو 2024.

تأسس فريق التوجيه الخارق في يوليو 2023 بهدف تضمين القيم والأهداف البشرية في نماذج الذكاء الاصطناعي لجعلها مفيدة وآمنة وموثوقة بقدر الإمكان. للأسف، انتهت هذه المبادرة بشكل فجئي بعد حوالي عشرة أشهر فقط بسبب عدم الوظائفية الداخلية.

فكرة ‘توجيه الذكاء الاصطناعي’ تتعلق بضمان عدم تفوق أنظمة الذكاء الاصطناعي عن حدود النوايا البشرية. كانت مجالًا حيويًا للبحث لدى OpenAI، التي تهدف بطموح لتطوير الذكاء العام الاصطناعي (AGI) الذي يتفوق على الذكاء البشري. ومع ذلك، على الرغم من جهودهم في تطوير مثل هذا AGI، اعترفت OpenAI في مدونتها بأن البشرية لا تزال تفتقر إلى التحكم الكامل في هذه التكنولوجيا.

أتت إعلانات OpenAI بأثر متتابع، حيث استقالت شخصيات رئيسية مثل الباحثين إيليا سوتسكيف وجان لايك فقط يوم بعد الكشف عن آخر موديل لـ OpenAI، GPT-4o. عبر لايك عن رحيله على وسائل التواصل الاجتماعي، مشيرًا إلى الخلافات مع قيادة OpenAI حول الأولويات الأساسية. وقد أكدت التقارير التالية أن لايك انضم إلى Anthropic، منافس تأسسه أعضاء سابقون من OpenAI، مؤكدة على الغموض داخل صناعة الذكاء الاصطناعي.

الجدل لا يدور فقط حول توجيه الأنظمة الذكية الخارقة للذكاء وفقا للنوايا البشرية ولكن أيضًا حول أولوية النمو التجاري على سلامة الذكاء الاصطناعي – توازن يبدو OpenAI يكافح معه. هذا النقاش حرج، حيث قد يؤدي تقدم الذكاء الاصطناعي غير المراقب إلى مخاطر غير مسبوقة وتهديدات قائمة.

مستقبل آمن وموجه للذكاء الخارق هو تحدي كبير. يقترح هذا الإعلان أنه حان الوقت للاعبين جدد في الميدان لحمل هذا العبء، مضمنين منع تفوق تكنولوجيتنا على اعتباراتنا الأخلاقية والسلامة.

لماذا هو توجيه الذكاء الاصطناعي مهم؟

إن توجيه الذكاء الاصطناعي ضروري لأنه يتعلق بضمان أن تظل أفعال وقرارات أنظمة الذكاء الاصطناعي في خط مع القيم والأخلاق البشرية. بدون توجيه صحيح، هناك خطر أن يعمل الذكاء الاصطناعي غير المرئي من أجل مصلحة البشرية، مما قد يتسبب في الضرر أو في العمل بطرق غير مألوفة مع أهدافنا ونوايانا. وهذا ينطبق بشكل خاص عندما نقترب من تطوير AGI، حيث قد تتخذ أنظمة الذكاء الاصطناعي قرارات معقدة بعواقب بعيدة المدى.

ما هي التحديات الرئيسية المتعلقة بإلغاء فريق توجيه الذكاء الاصطناعي في OpenAI؟

تقدم الإلغاء تحديات عدة. أولاً، يطرح تساؤلًا حول التزام مطوري الذكاء الاصطناعي بالسلامة والآثار الأخلاقية لتقنياتهم. ثانيًا، يمكن أن يبطئ تقدم في مجال البحث الحرج الضروري من أجل التقدم الآمن لـ AGI. ثالثًا، قد يؤدي العدم الوظائفي الداخلي داخل الهيئات الرائدة في مجال الذكاء الاصطناعي إلى تآكل المواهب، حيث قد يبحث الباحثون الأوائل عن بيئات تشعرون فيها بأن سلامة الذكاء الاصطناعي تحظى بالأولوية، كما اقترح رحيل جان لايك.

ما هي الجدليات المحيطة بقرار OpenAI؟

تنبع الجدليات من المخاوف من أن OpenAI تُولي أولوية للمصالح التجارية على السلامة والاعتبارات الأخلاقية لتطوير الذكاء الاصطناعي. يمكن أن تضر هذه الأولوية بشمولية التدابير الأمنية في سبيل التقدم السريع وإطلاق نماذج الذكاء الاصطناعي الجديدة، مما قد يقدم مخاطر على المستهلكين والمجتمع بشكل عام. بالإضافة إلى ذلك، هناك جدل حول ما إذا كان بإمكان OpenAI البقاء وفية لمهمتها في ضمان أن يعود AGI بفائدة على الجميع من البشر إذا تجاوزت الأهداف المالية المخاوف الأمنية.

ما هي المزايا والعيوب لهذا الوضع؟

المزايا:
– قد يؤدي التقدم المستمر لـ OpenAI في مجال الذكاء الاصطناعي إلى تقديم تكنولوجيات وخدمات جديدة مفيدة في الفترة القصيرة.
– قد يشجع التغيرات داخل OpenAI على إجراء مناقشات أكثر انفتاحًا وزيادة الوعي بأهمية سلامة الذكاء الاصطناعي.

العيوب:
– قد يقاطع إلغاء فريق التوجيه الخارق البحث الحرج في ضم القيم الإنسانية في أنظمة الذكاء الاصطناعي.
– قد يعكس هذا الوضع اتجاهًا مؤلمًا حيث يضطر الأولويات التجارية إلى التفوق على الاعتبارات الأمنية في تطوير الذكاء الاصطناعي، مما قد يؤدي إلى عواقب ضارة أو غير مقصودة.
– قد يلحق هذا القرار ضررًا بثقة الجمهور بالذكاء الاصطناعي وبالشركات التي تطور هذه التكنولوجيا.

الروابط المقترحة ذات الصلة:
– لمن يرغب في فهم الآثار العريضة للذكاء الاصطناعي وحوكمته، يمكن زيارة معهد مستقبل الحياة على الرابط futureoflife.org.
– لاستكشاف أحدث التطورات في مجال الذكاء الاصطناعي والمناقشات الأخلاقية ذات الصلة، يمكن زيارة معهد AI Now على الرابط ainowinstitute.org.

يرجى ملاحظة أنني لا أستطيع التحقق من صحة عناوين URL بما أن قدرتي على تصفح الإنترنت معطلة، ولكن تلك الروابط مقترحة بناءً على المنظمات الموثوق بها المعروفة بعملها في مجال سلامة وأخلاقيات الذكاء الاصطناعي.

The source of the article is from the blog krama.net

Privacy policy
Contact