معالج Core Ultra من Intel يدخل عصر الذكاء الاصطناعي مع دمج NPU

فهم دور NPUs في المعالجات الحديثة
أحدث ابتكار لشركة إنتل في مجال المعالجات، المعالج Core Ultra، مزود بمكون مخصص يُعرف باسم وحدة المعالجة العصبية (NPU)، مصمم للتعامل بكفاءة مع المهام المتعلقة بالذكاء الاصطناعي (AI). يعكس توصيف هذه ال NPU اتجاهًا أوسع عبر معالجات الهواتف الذكية، مشيرًا إلى الحاجة المتزايدة لأجهزة مخصصة للذكاء الاصطناعي.

سبب تميز ال NPUs عن ال CPUs وال GPUs
تتطلب إضافة NPUs في المعالجات من قبل الشركات الرائدة مثل إنتل، آرم، أبل، Qualcomm Technologies، و Samsung Electronics مقارنة مع ال CPUs وال GPUs التقليديين. ومع ذلك، كلٌ منها يقدم وظيفة مميزة. فبينما تدير ال CPUs المهام العامة للحوسبة والتحكم، ويُركز ال GPUs على عرض الرسومات ومعالجة البيانات بشكل موازي، تسرع NPUs التستخدمات العملية للذكاء الاصطناعي على الأجهزة المحمولة، مثل الهواتف الذكية وأجهزة الكمبيوتر. وهذا يتناقض بالطبع مع GPUs المستخدمة في مراكز البيانات لمعالجة أحمال العمل الكبيرة لتدريب الذكاء الاصطناعي.

فوائد الحوسبة الحافة من معالجة الذكاء الاصطناعي على الجهاز
يكمن الدافع وراء NPUs في قدرتها على أداء المهام المتعلقة بالذكاء الاصطناعي بالقرب من المستخدمين لتجنب التأخير المرتبط بالخوادم ومشاكل العرض النقطي. تعتبر NPUs أساسية لمهام مثل التعرف على الوجوه أو تحليل الصور مباشرة على الجهاز، مما يقلل من الحاجة لإعادة توجيه البيانات إلى خادم مركزي.

تطور المعالم لمسارات تسريع الذكاء الاصطناعي
على الرغم من الارتفاع في اهتمام الحوسبة بالمسارات المحددة للذكاء الاصطناعي لمعالجة الخوادم، يبرز وحدة معالجة التدرج الفاصل لشركة جوجل (TPU) كنجاح بارز. ويركز هذا على التحديات التي تواجهها الأجهزة المتخصصة في بيئة يهيمن عليها تنوع وتحسين مستمر في GPUs. ومع ذلك، على الجانب المتعلق بالمستخدم، تصبح NPUs مركزية لتوفير إمكانيات الذكاء الاصطناعي المحسنة دون إرهاق ال CPUs وال GPUs، مشيرة إلى مستقبل يمكن أن تلعب فيه وحدات معالجة الذكاء الاصطناعي المتخصصة دورًا حاسمًا سواء في تسارع الحوسبة بالحافة أو في مجال تطور الحوسبة على مستوى الخوادم.

كتب هذا المقال ماسا بي أو بي أزميدا، مهندس معالجات x86 ماهر، ويركز على الاتجاه التكنولوجي الناشئ لدمج NPUs داخل المعالجات لتلبية متطلبات تصاعد عمليات الذكاء الاصطناعي على حواف الشبكات الحاسوبية.

الأسئلة والأجوبة الرئيسية

1. ما هي NPUs؟
تعتبر NPU، أو وحدة المعالجة العصبية، مكونًا مخصصًا مصمم لمعالجة المهام المتعلقة بالذكاء الاصطناعي (AI) بكفاءة، مثل عمليات تعلم الآلة وحسابات الشبكات العصبونية.

2. لماذا يتم دمج NPUs في المعالجات؟
يتم دمج NPUs في المعالجات لتسريع مهام الاستدلال الذكي، وتحسين كفاءة الطاقة عند التعامل مع هذه المهام، وتمكين معالجة AI أسرع وأكثر أمانًا على الأجهزة الحافة مثل الهواتف الذكية وأجهزة الكمبيوتر.

3. كيف تختلف NPUs عن الCPUs والGPUs؟
تم تحسين NPUs لعمليات ذكاء صناعي محددة، بينما تعالج ال CPUs المهام العامة للحوسبة والتحكم، وتتميز ال GPUs في عرض الرسومات ومعالجة البيانات بشكل موازي.

التحديات الرئيسية والجدل

التوافق والتوحيد: قد تتطلب تطوير برامج يمكن أن تستفيد تأثيريًا من قدرات NPUs نماذج وإطار عمل برمجية جديدة، مما يشكل تحديًا محتملاً للاعتماد الواسع النطاق.

التنافس في سوق مسارات تسريع الذكاء الاصطناعي: سوق مسارات تسريع الذكاء الاصطناعي تتطور بسرعة مع العديد من اللاعبين، بما في ذلك رقائق الذكاء الاصطناعي المتخصصة مثل TPU التابعة لجوجل. ما إذا كانت NPUs يمكنها بثوب تنافسي أن تتفوق باستمرار على GPUs وTPUs من حيث الكفاءة والتكلفة يظل نقطة جدل في الصناعة.

تحقيق التوازن بين الطاقة والأداء: تصميم NPUs التي توفر القوة اللازمة لمعالجة الذكاء الاصطناعي دون المساس بعمر البطارية، خاصةً في الأجهزة القابلة للحمل، يعد تحديًا تصميميًا كبيرًا.

مزايا وعيوب دمج NPUs في المعالجات

المزايا:
أداء ذكاء اصطناعي محسن: تعالج NPUs المهام المتعلقة بالذكاء الاصطناعي بسرعة، وتحسن تجربة المستخدم بشكل عام مع التطبيقات الذكية السريعة والمستجيبة.
الكفاءة: يمكن لل NPUs أن تقدم كفاءة طاقة أكبر مقارنة بالاستخدام القائم على CPUs أو GPUs للمهام المتعلقة بالذكاء الاصطناعي، مما يؤدي إلى تحسين عمر البطارية في الأجهزة المحمولة.
خصوصية البيانات: يمكن أن تعزز معالجات الذكاء الاصطناعي المحلية على الأجهزة الحافة الخصوصية والأمان عن طريق تقليل نقل البيانات الحساسة إلى السحابة.

العيوب:
التعقيد: إضافة NPUs إلى المعالجات تزيد من تعقيد بنية النظام، مما قد يؤدي إلى زيادة التكاليف وتطوير برامج أكثر تعقيدًا.
نقص المرونة: NPUs متخصصة وقد لا تعالج المهام غير ذات الصلة بالذكاء الاصطناعي بشكل عام كما يفعل الCPUs وال GPUs.
تخصيص الموارد: يتطلب تنفيذ NPUs تخصيص الترانزسيستورات لمهمة محددة (معالجة الذكاء الاصطناعي)، وهي يمكن أن تكون قد استُعملت لتحسين قدرات الوحدة المركزية العامة أو الGPUs.

للمزيد من المعلومات حول المواضيع العامة المتعلقة بالمعالجات والذكاء الاصطناعي، يُمكنك زيارة موقع إنتل على الرابط التالي: إنتل أو استكشاف مواضيع الشبكات العصبية ومسارات تسريع الذكاء الاصطناعي على مواقع مثل Arm أو Qualcomm Technologies. يُرجى التأكد من صحة عناوين الرابط الإلكتروني قبل الوصول إليها لأنني لا أستطيع التحقق بشكل قاطع.

The source of the article is from the blog trebujena.net

Privacy policy
Contact