Google’s Innovations in the World of Generative AI: Paving the Way for Future Developments

Šiais metais ryžtingu žingsniu nuo savo įprastos uždaros kodo politikos atšokęs „Google“ pristatė eilę atvirojo kodo įrankių, skirtų remti generatyvinės dirbtinio intelekto projektus ir infrastruktūrą. Šis posūkis žymi reikšmingą žingsnį į priekį įmonės įsipareigojimui skatinti programuotojų gerovę ir plėsti savo ekosistemų ambicijas.

Vienas iš pastebimų „Google“ pristatytų įrankių yra „MaxDifuzija“, įvairių difuzijos modelių rodiklių realizacijų rinkinys. Šie modeliai, tokie kaip paveikslų kūrėjas „Stabilus Difuzija“, yra suprojektuoti taip, kad veiktų XLA įrenginiuose. „XLA“, arba Pagreitintas Linijinis Algebras, apibrėžia techniką, kuri optimizuoja ir pagreitina konkretaus dirbtinio intelekto darbo krūvius, įskaitant baiginėjimą ir aptarnavimą. „Google“ tensorių apdorojimo vienetai (TPU) ir nedavni „Nvidia“ GPU priskiriamos „XLA“ įrenginiams.

„Google“ taip pat pristatė „Jetstream“, variklį, specialiai sukurtą vykdyti generatyvinius dirbtinio intelekto modelius, ypač teksto kūrimo modelius. Šiuo metu galima tik remtis TPU, nors ateityje numatoma palaikyti GPU suderinamumą, „Jetstream“ siūlo iki 3 kartų didesnę našumą už dolerį, tokiais kaip „Google“ „Gemma 7B“ ir „Meta“ „Llama 2“ modeliais. Šis patobulintas našumas yra gyvybiškai svarbus, kai klientai ieško išlaidų efektyvių įverčių krūvių, kurie užtikrina didelį našumą.

„Nors „Jetstream“ siūlo reikšmingus našumo pagerinimus, konkrečios 3 kartų pagerinimo poveikyje stovinčios detalės lieka neaiškios“, – sakė Markas Lohmeyeris, „Google Cloud“ GM skaičiavimas ir dirbtinio intelekto infrastruktūra. Kilę klausimai dėl naudojamo „TPU“ kartos, palygintų bazinių lygių ir našumo apibrėžimo. Del nuodugnesnio aiškinimo susisiekta su „Google“.

„MaxTekstas“, dar viena atvirojo kodo „Google“ indėlio į AI modelius rinkinys, yra teksto kūrimo dirbtinio intelekto modelių rinkinys, kuriems orientuotas TPU ir „Nvidia“ GPU. „Gemma 7B“, „OpenAI“ GPT-3, „Llama 2“ ir modeliai iš „Mistral“ integruoti į „MaxTekstą“. Šiuos modelius galima prisitaikyti ir pritaikyti, kad atitiktų programuotojų konkretų poreikį. „Google“ jų našumą optimizavo TPU ir bendradarbiavo su „Nvidia“, siekdamas pagerinti našumą dideliuose GPU klasteriuose, dėl ko energijos veiksmingumas didesnis, ir sumažintos išlaidos.

„Bendradarbiaudama su dirbtinio intelekto startuoliu „Hugging Face“, „Google“ sukūrė „Optimini TPU“, siekdama palengvinti tam tikrų dirbtinio intelekto krūvių įrengimą ant „TPU“. Pagrindinis tikslas yra sumažinti kliūtis naudoti generatyvinius dirbtinio intelekto modelius, ypač tekstą generuojančius modelius, TPU aparate. Šiuo metu „Optimini TPU“ remia tik „Gemma 7B“, ir treneriuoti generatyvinius modelius „TPU“ kol kas nepalaikoma. Tačiau „Google“ žada, kad tobulinimai jau artėja.

Šie atviro kodo įrankiai iš „Google“ turi potencialą revoliucionizuoti generatyvinio intelekto sritį ir įgalinti programuotojus tyrinėti naujas galimybes. Atidarius prieigą prie galingų dirbtinio intelekto modelių ir infrastruktūros, „Google“ skatina inovacijas ir bendradarbiavimą programuotojų bendruomenėje. Su žadama nuolatinių patobulinimų ir pažadėtomis pažangomis ateitis atrodo žadančia generatyvinio intelekto plėtrai.

DUK

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact