تعديل سياسة الاستخدام من قِبَل OpenAI وتوسيع نطاق التطبيقات المسموح بها

قامت OpenAI، مختبر البحوث في الذكاء الاصطناعي، مؤخرًا بتحديث سياسة استخدامها للسماح باستخدام تقنيتها في تطبيقات العسكرة والحروب. جاء هذا التغيير، الذي لاحظته أولًا The Intercept، في إطار مساعي OpenAI لتوضيح وتحسين الإرشادات الخاصة بها.

سابقًا، كانت سياسة استخدام OpenAI تحظر صراحة استخدام تقنيتها في “تطوير الأسلحة” و “العسكرة والحروب”. ومع ذلك، فإن السياسة المحدثة تقتصر الآن على منع استخدام أدوات OpenAI في تطوير الأسلحة، مع السماح باستخدامها في سياقات العسكرة والحروب.

في بيان لـ TechCrunch، أكدت OpenAI أن سياستها لا تزال تعطي الأولوية لمنع الضرر وتحظر استخدام تقنيتها للإلحاق الضرر بالأفراد أو الممتلكات. كما لفتت الشركة إلى أن هناك حالات استخدام الأمان القومي تتوافق مع مهمتها، مثل العمل مع منظمات مثل DARPA لتطوير أدوات أمن المعلومات للبنى التحتية الحيوية.

يعكس قرار تعديل سياسة الاستخدام التزام OpenAI بتطوير الذكاء الاصطناعي الأخلاقي ونشره بطريقة مسؤولة. عبر توسيع نطاق التطبيقات المسموح بها، تهدف المؤسسة إلى تعزيز النقاشات والتعاونات التي يمكن أن تسهم في التقدم الإيجابي في تكنولوجيا الذكاء الاصطناعي.

ومع ذلك، تبقى المخاوف المتعلقة بالعواقب المحتملة للذكاء الاصطناعي في الحروب قائمة. لقد حذر خبراء الصناعة مرارًا وتكرارًا من المخاطر المرتبطة باسـتخدام الذكاء الاصطناعي بطرق غير قانونية، مشبهين ذلك بتطوير الأسلحة النووية قبل الحرب العالمية الثانية. إطلاق تقنيات الذكاء الاصطناعي الإنتاجية والقادرة على توليد محتوى قوي، مثل ChatGPT لدى OpenAI و Bard لدى Google، تفاقمن هذه المخاوف.

تشير سياسة الاستخدام المعدلة لـ OpenAI إلى الاعتراف بضرورة الوضوح والشفافية في معالجة الفوائد والمخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي. مع استمرار تطور هذا المجال، من الضروري أن تشارك المؤسسات بنشاط في تطوير الذكاء الاصطناعي المسؤول وتأخذ في الاعتبار الآثار الأخلاقية لعملها.

The source of the article is from the blog crasel.tk

Privacy policy
Contact