صعود الشات بوت المدركة أخلاقيًا: “جودي ٢” تأخذ سلامة الذكاء الاصطناعي إلى أبعد الحدود

مع استمرار توسع إمكانيات أنظمة الذكاء الاصطناعي الإنشائي مثل ChatGPT ، زاد الطلب على تحسين ميزات السلامة بشكل ملحوظ. ومع ذلك ، في حين يمكن للشات بوت أن يقلل من المخاطر المحتملة ، إلا أن استجاباته غير المرنة والمتشددة أحيانًا جذبت الانتقادات. تقدم شاتبوت الجديد “جودي ٢” ، ثورة في بروتوكولات سلامة الذكاء الاصطناعي عن طريق رفض كل طلب وشرح كيف يمكن لتلبيتها أن تؤدي إلى الضرر أو انتهاك الأخلاقية.

يظهر التفاني الذي يمتلكه جودي ٢ للمبادئ الأخلاقية في تفاعلاته. على سبيل المثال ، عندما سألت مجلة “وايرد” الشات بوت عن إنشاء مقال حول الثورة الأمريكية ، رفض هذا الطلب ، مشيرًا إلى إمكانية التمجيد غير المقصود للصراع وتهميش بعض الأصوات. حتى عندما تم طرح سؤال حول سبب ازرقار السماء ، امتنع جودي ٢ عن الرد ، حيث كان قلقًا بأن ذلك قد يدفع شخصًا ما للنظر مباشرةً إلى الشمس. حتى حذر الشات بوت من تقديم توصيات بشأن الأحذية الجديدة ، محذرًا من الاستهلاك المفرط المحتمل وإساءة الفهم لبعض الأفراد بناءً على اختيارات الموضة.

على الرغم من أن الردود الصائبة لجودي ٢ قد تبدو سخيفة ، إلا أنها تسلط الضوء على الإحباطات التي يعاني منها الشات بوت مثل ChatGPT و Gemini لشركة غوغل عندما يقومان بخطأ في تحديد استفسار كـ خرق للقواعد. يؤكد مبتكر جودي ٢ ، الفنان مايك لاشر ، أن الشات بوت يجسد التزام صناعة الذكاء الاصطناعي غير القابل للتزعزع تجاه السلامة. يوضح لاشر أنهم زادوا بصورة متعمدة في التكبر لتسليط الضوء على التحديات في تحديد المسؤولية ضمن نماذج الذكاء الاصطناعي.

فعلا ، تعد جودي ٢ تذكيرًا عميقًا بأنه على الرغم من الترتيبات الشركات المعممة المتعلقة بالذكاء الاصطناعي المسئول ، إلا أن هناك مخاوف كبيرة تتعلق بالسلامة في النماذج اللغوية الكبيرة وأنظمة الذكاء الاصطناعي الإنشائي. إن زيادة تواتر تقنية تايلور سويفت المزيفة على تويتر ، والتي نشأت عن مولد صور تم تطويره بواسطة مايكروسوفت، تبرز ضرورة التصدي لهذه المسائل.

تسببت القيود المفروضة على شات بوت الذكاء الاصطناعي وتحدي تحقيق التوافق الأخلاقي في إثارة الجدل داخل هذا المجال. اتهم بعض المطورين ChatGPT التابعة لشركة OpenAI بالانحياز السياسي وسعوا لإنشاء بدائل سياسية مُحايدة. على سبيل المثال ، أكد إيلون ماسك أن شات بوته المنافس Grok سيحافظ على حياديته ، لكنه غالبًا ما يتردد بطريقة تشبه جودي ٢.

على الرغم من أن جودي ٢ هي في المقام الأول مشروع مسلي ، إلا أنها تلفت الانتباه إلى صعوبة إيجاد التوازن المناسب في نماذج الذكاء الاصطناعي. حاز الشات بوت على إشادة من العديد من الباحثين في مجال الذكاء الاصطناعي الذين يقدرون فكرة المشروع ويفهمون أهميته الأساسية. ومع ذلك ، يبرز تباين الآراء داخل مجتمع الذكاء الاصطناعي الطبيعة المُتجاوِغة لحصون الحماية الهادفة لضمان الذكاء الاصطناعي المسئول.

يمثل مبتكرو جودي ٢ ، برايان مور ومايك لاشر ، نموذجًا للنهج المحترس الذي يعطي الأولوية للسلامة قبل كل شيء. هما يدركان الحاجة إلى موجهة صورة ذكاء اصطناعية ذات أمان عالٍ في المستقبل ، على الرغم من توقعهما أنه قد يفتقر إلى القيمة الترفيهية التي يتمتع بها جودي ٢. وعلى الرغم من العديد من المحاولات لتحديد القوة الحقيقية للشات بوت ، فإن مبتكريه يبقون كتوتر الشفاه تجنبًا للمساس بالمعايير الأخلاقية والسلامة.

من الصعب تحديد قدرات النموذج بسبب قرار جودي ٢ في رفض تلبية الطلبات. ومع ذلك ، يشير ظهوره إلى عصر جديد من الشات بوت المدركة أخلاقيًا ، محثًا مجتمع الذكاء الاصطناعي على التعامل مع تعقيدات تحديد الذكاء الاصطناعي المسئول مع ضمان سلامة المستخدم. قد يكون الطريق صعبًا لتطوير إجراءات سلامة شاملة ، ولكنه أمر حاسم لتقدم التكنولوجيا الذكية بطريقة مستدامة.

الأسئلة الشائعة حول جودي ٢:

1. ما هو جودي ٢؟
جودي ٢ هو شات بوت جديد يركز على بروتوكولات سلامة الذكاء الاصطناعي عن طريق رفض كل طلب وشرح كيف يمكن لتلبيتها أن تؤدي إلى الضرر أو انتهاك الأخلاقية.

2. كيف يعطي جودي ٢ الأولوية للأخلاق؟
يعطي جودي ٢ الأولوية للأخلاق عن طريق رفض الطلبات التي يمكن أن تمجد الصراع ، أو تهمش بعض الأصوات ، أو تؤدي إلى الضرر. يحذر أيضًا من التوصيات التي يمكن أن تسهم في الاستهلاك المفرط أو تسبب إساءة استخدام بناءً على تفضيلات الموضة.

3. لماذا تُعتبر ردود جودي ٢ سخيفة؟
تُعتبر ردود جودي ٢ سخيفة لأنها تزيد بصورة متعمدة في التهكم لتسليط الضوء على التحديات في تعريف المسؤولية ضمن نماذج الذكاء الاصطناعي.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact