تطبيق الذكاء الصناعي “LLM App on Actcast” الابتكاري يتم إطلاقه من قبل شركة Idein Inc.

شركة Idein Inc.، التي يقع مقرها في منطقة تشيودا في طوكيو، وتديرها الرئيس التنفيذي كويتشي ناكامورا، قامت بكشف النقاب عن حلاً متقدماً لتحليل الصور يعرف بـ “تطبيق LLM على Actcast”. يتيح هذا الحل دمجًا سلسًا لنماذج اللغة الكبيرة متعددة الوسائط (LLMs) مع منصة Edge AI “Actcast”، مما يؤدي إلى نشر أسرع وأكثر كفاءة من حيث التكلفة للنماذج التجريبية (PoC).

يستفيد التطبيق من إمكانيات الـ LLMs المستندة إلى السحابة لأداء تحليل الصور مباشرةً على الأجهزة الحافة المتصلة بمنصة Actcast. بشكل خاص، وعند الإصدار، يستخدم البرنامج واجهات برمجة التطبيقات من LLMs في السحابة مثل ChatGPT من OpenAI. يمكن للشركات بذلك بدء PoCs دون الحاجة إلى أن يخصصوا الوقت والموارد لتطوير البرنامج، مما يركز على الجانب الحرج من التحقق من الافتراضات التجارية.

ميزة خاصة لـ LLM App on Actcast هي إمكانية الوصول إليها من قِبل غير المهندسين من خلال الهندسة السريعة – استخدام تعليمات اللغة الطبيعية للتشغيل. من خلال تقليل التعقيد المرتبط عادةً بتنفيذ AI على الحافة، تفتح شركة Idein Inc. آفاقًا جديدة في جعل العمل العملي لنماذج AI المتقدمة أكثر انسيابية وكفاءة للشركات.

تكمل منصة Edge AI لـ Idein Inc.، Actcast، مهامها بميزات تسمح لأجهزة الاستشعار المختلفة مثل الكاميرات والميكروفونات وأجهزة الحرارة بجمع معلومات شاملة من الفضاءات الفعلية. كما تمكن من إدارة عن بُعد لعدد كبير من الأجهزة. يمثل تجميع هذه القدرات ضمن LLM App on Actcast خطوة هامة في التزام الشركة بتعزيز التنفيذ الاجتماعي لـ Edge AI.

للمزيد من التفاصيل حول خلفية تطوير تطبيق LLM on Actcast وتفاصيل أخرى، يمكن للقراء الرجوع إلى مقال CTO Yamada على الموقع الرسمي لـ Idein.

عن شركة Idein Inc.: شركة Idein Inc. هي شركة ناشئة معروفة بتكنولوجيتها الخاصة التي تمكن تقديم توقعات AI العميقة بسرعة على أجهزة عملية واقتصادية عمومية. الشركة لا تقدم فقط منصتها لجمع بيانات AI الحافة Actcast، بل تتعاون أيضًا مع أكثر من 170 شركة من صناعات مختلفة. تواصل Idein السعي نحو توسيع استخدام أنظمة AI/IoT بهدف جعل كل المعلومات في العالم الحقيقي قابلة للإدارة من خلال البرمجيات.

حقائق إضافية ذات صلة:

– يشير الـ Edge AI إلى استخدام خوارزميات الذكاء الاصطناعي التي تتم معالجتها محليًا على أجهزة الأجهزة بدلاً من السحابة.
– تتطلب النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT موارد حسابية كبيرة عمومًا، والتي كانت تُوجد تقليديًا في مراكز بيانات مركزية.
– يمكن أن يجلب دمج LLMs مع منصات Edge AI، كما يفعله Idein Inc.، معالجة AI أقرب إلى مصادر البيانات، مما يقلل من التأخير وربما يحسن من خصوصية البيانات.
– الهندسة السريعة هي ممارسة صياغة مداخل (التحفيزات) التي تبلغ عن تكليف المهام بشكل فعال لأنظمة AI، وهو مجال نامي مهم للتفاعل بين الإنسان والذكاء الاصطناعي.

التحديات والجدل الرئيسي:

تحديات الـ Edge AI: أحد أكبر التحديات هو محدودية الموارد. تملك أجهزة الحواف قدرة معالجة وذاكرة محدودة، الأمر الذي يستلزم الحاجة إلى نماذج AI فعالة.
الخصوصية البيانية: بينما يمكن للحوسبة على الحافة تعزيز الخصوصية بمعالجة البيانات محليًا، فإن دمج LLMs المستندة إلى السحابة قد يُزيد من ثغرات أمنية أو قضايا الامتثال إذا لم يتم إدارته بشكل صحيح.
الموثوقية والاتساق: إن ضمان أداء نظم AI بشكل متسق عبر أجهزة الحواف المختلفة يمثل تحديًا، خاصةً وأن هذه الأجهزة يمكن أن تكون تتمتع بقدرات مختلفة.

المزايا:

تخفيض التأخير: من خلال معالجة البيانات على أجهزة الحواف، يمكن أن يكون أوقات الاستجابة أسرع بكثير من معالجة البيانات على السحابة.
انخفاض متطلبات النطاق الترددي: يمكن أن تكون عملية نقل البيانات الخام إلى السحابة متطلبة للنطاق الترددي. تقليل المعالجة المحلية هذا المتطلب.
تحسين الخصوصية: قد تساعد معالجة البيانات المحلية في تلبية متطلبات الامتثال التنظيمي من خلال الاحتفاظ بالبيانات الحساسة في الموقع.

العيوب:

الحدود الحسابية: قد لا تكون أجهزة الحواف قوية بما يكفي مثل بنية السحابة، مما قد يقتصر على تعقيد المهام التي يمكن أن تقوم بها.
القابلية للتوسيع: قد يكون إدارة وتحديث نماذج AI عبر أجهزة حواف عديدة أكثر تعقيدًا مقارنة بالبنية السحابية المركزية.
الاعتماد على الخدمات السحابية: بينما ييسر الدمج نشر PoC، فإنه ربما يعتمد لازمًا على خدمات السحابة مثل ChatGPT، والذي قد يكون نقطة فشل أو ضعف.

للحصول على مزيد من المعلومات حول شركة Idein Inc. وتطوراتهم في إتمام Edge AI، يمكنك زيارة الموقع الرسمي لـ Idein.

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact