پتانسیل موج زدن بحران در حوزه خوانندهی مصنوعی با ابزارهای منبع باز گوگل

گوگل در حرکتی جسورانه امسال از رویکرد معمول خود باز و مجموعه‌ای از ابزارهای منبع باز را معرفی کرد که هدف آن‌ها حمایت از پروژه‌ها و زیرساخت‌های خوانندهی مصنوعی است. این تغییر نشان‌دهنده گام مهمی به جلو در تعهد شرکت برای حمایت از رفاه توسعه‌دهندگان است و دستاوردهای اکوسیستمی خود را پیش می‌برد.

یکی از ابزارهای قابل توجهی که گوگل معرفی کرده است، مکس دیفیوژن است، مجموعه‌ای از انتقال‌های مرجع از مدل‌های مختلف دیفیوژن. این مدل‌ها، مانند تصویر ساز پایدار دیفیوژن، برای اجرا بر روی دستگاه‌های اکس‌ال‌ای مطرح شده‌اند. اکس‌ال‌ای یا جبر خطی شتاب‌یافته به تکنیکی اشاره دارد که بارگذاری‌ها و شتاب‌های خاص خوانندهی مصنوعی را بهینه می‌کند، از جمله بهینه‌سازی و شتاب بارهای کاری خاص، از قبیل تنظیم و خدمات‌دهی. هم TPUs گوگل و هم GPUهای اخیر Nvidia تحت رده دستگاه‌های اکس‌ال‌ای قرار می‌گیرند.

گوگل همچنین جت‌استریم را معرفی کرده است، یک موتور بنیادی برای اجرای مدل‌های خوانندهی مصنوعی، به ویژه مدل‌های تولید متن. در حال حاضر تنها به پشتیبانی از TPUs محدود شده و قابلیت سازگاری با GPUها در آینده مورد انتظار است، جت‌استریم ارائه دهنده بهره وری تا 3 برابر بالاتر در هر دلار برای مدل‌هایی مانند گما 7B گوگل و لما 2 متا می‌باشد. این بهبود عملکرد حائز اهمیت است زیرا مشتریان به دنبال اراستگی‌های پرهزینه برای بسته‌های استنتاجی هستند که عملکرد بالا ارائه می‌دهند.

“با این حال جت‌استریم بهبود‌های قابل توجهی را ارائه می‌دهد، اما جزئیات پشت ادعا شده‌ی بهبود 3 برابر مبهم است،” گفت مارک لوهمایر، مدیر عامل گوگل کلود در بخش محاسبات و زیرساخت یادگیری ماشین. سوالات مربوط به نسل TPU استفاده شده، مقایسه‌های پایه، و تعریف عملکرد مطرح شده‌اند. برای کسب روشنی بیشتر گوگل تماس گرفته شده است.

مکستکست، یک اضافه شده دیگر به مشارکت‌های منبع باز گوگل، مجموعه‌ای از مدل‌های خوانندهی مصنوعی مربوط به متن است که بر TPUs و GPUهای Nvidia مورد هدف قرار می‌گیرند. گما 7B، GPT-3 اوپن‌ای‌آی، لما 2 و مدل‌های از میسترال در مکستکست یکپارچه شده‌اند. شرکت گوگل عملکردهای خود را روی TPUs بهینه کرده و با Nvidia همکاری کرده است تا عملکرد روی خوشه‌های بزرگ GPU را بهبود بخشد و عملکردی تأثیرگذار در بهینه‌سازی هزینه و انرژی داشته باشد.

به همکاری با شرکت خردی‌کرد ای‌آی (hugging face)، گوگل TPU بهینه را ایجاد کرده است تا تسهیل در استقرار بارهای کاری خاص روی TPUs فراهم شود. هدف اصلی کاهش مانع ورود جریان توسعه‌دهنده‌ها به مدل‌های خوانندهی مصنوعی، به ویژه مدل‌های تولید متن روی سخت‌افزارهای TPU می‌باشد. در حال حاضر، TPU بهینه فقط از گما 7B پشتیبانی می‌کند و آموزش مدل‌های خوانندهی روی TPUs هنوز پشتیبانی نمی‌شود، با این حال گوگل اطمینان داده است که بهبود‌ها در انتظار است.

ابزارهای منبع باز گوگل این امکان را دارند تا حوزه خوانندهی مصنوعی را بهبود بخشند و توانایی دهند به توسعه‌دهندگان برای کاوش در امکانات جدید. با باز کردن دسترسی به مدل‌ها و زیرساخت‌های قدرتمند خوانندهی مصنوعی، گوگل فضای نوآوری و همکاری را در جامعه توسعه‌دهندگان فعال می‌کند. با اقدامات بهبود و پیشرفت‌های مداوم تضمین شده، آینده توسعه خوانندهی مصنوعی ویژه می‌لرزد.


سوالات متداول

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact