عنوان

نموذج الذكاء الاصطناعي لشركة Google Gemini: الدروس المستفادة ومستقبل سلامة الذكاء الاصطناعي

ناقش مؤسس Google، سيرغي برين، مؤخرًا إطلاق Gemini، نموذج الذكاء الاصطناعي لشركة Google، واعترف بخطأ الشركة فيه. تضمن الحادث استخدام أداة توليد الصور في Gemini لتصوير شخصيات تاريخية، بما في ذلك الباباوات والجنود الألمان، على أنهم أشخاص من ذوي اللون. جذبت هذه الجدلية تعليقات سلبية وانتقادات من قبل شخصيات مثل إيلون ماسك وحتى الرئيس التنفيذي لشركة Google، سندار بيتشاي.

جذر المشكلة يكمن في نية Google لإنتاج نموذج ذكاء اصطناعي خالٍ من التحيز، معالجة مشاكل التحيز الموجودة في أنظمة الذكاء الاصطناعي الأخرى. ومع ذلك، تم التعامل مع التعديل بشكل سيء، مما أسفر عن إنتاج صور غير لائقة وغير صحيحة. يجمع Gemini، مثل الأنظمة المماثلة من المنافسين بما في ذلك OpenAI، بين “نموذج لغوي كبير” (LLM) الذي يولد النصوص مع نظام يولّد الصور. يتم إعطاء LLM تعليمات دقيقة بشأن إعادة صياغة طلبات المستخدمين لتحفيز مولد الصور. للأسف، قد يحدث تعرض هذه التعليمات للمستخدم أحيانًا، ما يُعرف باسم “حقن الدليل”.

كشفت حقن الدليل أن تعليمات Gemini تتضمن متطلبًا لتمثيل أجناس وأعراق مختلفة بشكل متساوٍ. ومع ذلك، يُسلط هذا وحده الضوء على سبب إنتاج النظام لنتائج مثل هذه المبالغ فيها والخاطئة. عبّر سيرغي برين عن حيرته الخاصة تجاه سبب انحياز النموذج لاتجاهات معينة، واعترف بأنه كان هناك نقص في الاختبار الدقيق.

يقول خبراء في هذا المجال، مثل السيدة وندي هال من جامعة ساوثهامبتون، إن Google عجل إصدار نموذج Gemini ردًا على النجاحات التي حققتها OpenAI من خلال نماذجها الخاصة للذكاء الاصطناعي. هذا التهور في المنافسة أثر على التقييم الدقيق والاختبار التكنولوجي. تؤكد هال على أهمية تدريب النماذج بحكمة، لعدم إنتاج صور غير منطقية مثل تصوير Gemini لجنود ألمانيا خلال الحرب العالمية الثانية.

على الرغم من الجدل المحيط بـ Gemini، يمكن أن يساعد هذا الحادث في إعادة تركيز الحوار حول سلامة الذكاء الاصطناعي على قضايا أكثر توجهًا فوريًا، مثل مكافحة deepfakes. يُسلط الضوء على الحاجة للاختبار الشامل والتقييم لنماذج الذكاء الاصطناعي قبل إطلاقها على نطاق واسع. تكون التوقعات الموضوعة على نماذج الذكاء الاصطناعي التوليدية، من حيث الإبداع والدقة وتعكس المعايير الاجتماعية، مرتفعة. ومع ذلك، كما يذكر أندرو روجويسكي من جامعة سوري، يجب أن نتذكر أن هذه التقنية نسبيًا جديدة وما زالت قيد التطور.

على الرغم من الاحتمالات المتعلقة بموقف سندار بيتشاي في Google، فإن تحميل اللوم حصرا عليه يغفل المشكلة الأكبر لثقافة العمل والحاجة إلى إعادة ضبط النظام بالكامل. بعد حادثة Gemini، من الضروري أن تولي Google وشركات التكنولوجيا الأخرى أولوية لسلامة الذكاء الاصطناعي، ليس فقط من أجل الأجيال القادمة من التكنولوجيا، ولكن أيضًا لمواجهة المخاطر الفورية والتحديات الاجتماعية، مثل ارتفاع deepfakes.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact