شركات الذكاء الاصطناعي تحث الحكومة البريطانية على تحسين اختبار السلامة

عدد من شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI وGoogle DeepMind وMicrosoft وMeta، قد دعوا الحكومة البريطانية إلى تسريع إجراءات اختبار السلامة لأنظمة الذكاء الاصطناعي. ولقد وافقت هذه الشركات على السماح بتقييم نماذجها للذكاء الاصطناعي من قبل معهد السلامة الذكية (AISI) المؤسس حديثًا، ولكنها أعربت عن مخاوفها بشأن وتيرة وشفافية عملية التقييم الحالية. وبينما توافق الشركات على التعامل مع أي عيوب يتم اكتشافها من قبل المعهد، فلا يلزمها تأخير أو تعديل إصدار تقنياتها استنادًا إلى نتائج التقييم.

واحدة من النقاط الرئيسية للجدل بالنسبة لبائعي تكنولوجيا الذكاء الاصطناعي هي عدم وضوح البروتوكولات المتعلقة بالاختبار. إذ يسعون إلى الحصول على معلومات أكثر تفصيلاً حول الاختبارات التي تجرى، ومدة التقييم، وآلية التعليقات. كما يوجد أيضًا عدم وضوح بشأن ما إذا كان يتعين تكرار الاختبار في كل مرة يكون فيها تحديث طفيف لنموذج الذكاء الاصطناعي، وهو متطلب قد يعتبره مطورو الذكاء الاصطناعي عبئًا.

تعبر المخاوف التي أعربت عنها هذه الشركات عن صحة نظرًا للغموض المحيط بعملية التقييم. مع اعتزام الحكومات الأخرى النظر في تقييمات السلامة المماثلة للذكاء الاصطناعي، فإن أي فوضى حالية في إجراءات المملكة المتحدة لن تزداد إلا تفاقمًا مع بدء المزيد من السلطات في تقديم مطالب مماثلة على مطوري الذكاء الاصطناعي.

وفقًا لتقرير صحيفة Financial Times، فقد بدأت الحكومة البريطانية بالفعل اختبار نماذج الذكاء الاصطناعي من خلال التعاون مع المطورين المعنيين. ويشمل الاختبار الوصول إلى نماذج الذكاء الاصطناعي المتقدمة للاختبار قبل النشر، حتى للنماذج الغير مصدرة مثل “جيميني الترا” من Google. وكانت هذه المبادرة واحدة من الاتفاقات الرئيسية التي وقعت عليها الشركات في قمة السلامة الذكية للذكاء الاصطناعي في المملكة المتحدة التي عقدت في نوفمبر.

من الضروري أن تعمل الحكومة البريطانية والهيئات الحاكمة الأخرى عن كثب مع شركات الذكاء الاصطناعي لوضع إجراءات اختبار سلامة واضحة وموحدة. ستعزز عمليات التقييم الشفافة والفعالة ليس فقط الثقة في تكنولوجيا الذكاء الاصطناعي، ولكن أيضًا ضمان نشر هذه الأنظمة بشكل مسؤول في مجموعة متنوعة من القطاعات.

أسئلة متكررة

1. ما هي الشركات التي دعت الحكومة البريطانية إلى تسريع اختبارات السلامة لأنظمة الذكاء الاصطناعي؟
عدد من شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI وGoogle DeepMind وMicrosoft وMeta، قد قدمت هذا الدعوى.

2. ما هو دور معهد السلامة الذكية (AISI) المؤسس حديثًا؟
وافقت الشركات على السماح بتقييم نماذجها للذكاء الاصطناعي من قبل معهد السلامة الذكية (AISI).

3. هل ستؤخر الشركات أو تعدل إصدار تقنياتها استنادًا إلى نتائج التقييم؟
لا ، ليست هناك التزامات على الشركات بتأخير أو تعديل إصدار تقنياتها استنادًا إلى نتائج التقييم.

4. ما هي المخاوف التي عبرت عنها هذه الشركات حول عملية التقييم؟
عبرت الشركات عن مخاوفها بشأن وتيرة وشفافية وعدم وضوح البروتوكولات المتعلقة بالاختبار. وتسعى للحصول على مزيد من المعلومات التفصيلية حول الاختبارات التي تجرى، ومدة التقييم، وآلية التعليقات.

5. هل هناك عدم وضوح بشأن ما إذا كان يتعين تكرار الاختبار للتحديثات الطفيفة لنماذج الذكاء الاصطناعي؟
نعم ، هناك عدم وضوح بشأن ما إذا كان يجب تكرار الاختبار في كل مرة يكون فيها تحديث طفيف لنموذج الذكاء الاصطناعي، وهو متطلب قد يعتبره مطورو الذكاء الاصطناعي عبئًا.

كلمات رئيسية / مصطلحات تقنية

– الذكاء الاصطناعي: يعني الذكاء الاصطناعي.
– معهد السلامة الذكية (AISI): معهد تم تأسيسه حديثًا مكلف بتقييم نماذج الذكاء الاصطناعي من الناحية السلامة.
– نموذج الذكاء الاصطناعي: يشير إلى نظام الذكاء الاصطناعي أو الخوارزمية المطورة بواسطة الشركات.
– بروتوكولات الاختبار: الإجراءات والإرشادات المتبعة لتقييم واختبار نماذج الذكاء الاصطناعي.
– الاختبار قبل النشر: الاختبار الذي يتم إجراؤه قبل أن يتم نشر نموذج الذكاء الاصطناعي بشكل رسمي.

روابط ذات صلة

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– صحيفة Financial Times

[تضمين]https://www.youtube.com/embed/ro7xr6LjmBY[/تضمين]

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact