Jaunas perspektīvas uz Google atvērtā koda rīkiem generatīvai mākslai

Šogad Google veica drosmīgu soli, atkāpjoties no ierastā slēgtā koda pieejas un ieviešot klāstu ar atvērtā koda rīkiem, kuri paredzēti, lai atbalstītu generatīvās mākslas projektus un infrastruktūru. Šī pagrieziene iezīmē būtisku soli uz priekšu uzņēmuma apņemšanās veicināt attīstītāju labas gribas veicināšanu un veicināt savas ekosistēmas ambīcijas.

Var uzsvērt, ka viens no ievērojamākajiem Google prezentētajiem rīkiem ir MaxDiffusion, kurā ietvertas atsauceksemplāri par dažādiem difūzijas modeļiem. Šie modeļi, piemēram, attēlu ģeneratora Stabilā difūzija, ir izstrādāti, lai darbotos uz XLA ierīcēm. XLA jeb paātrinātā lineārā algebra atsaucas uz tehniku, kas optimizē un paātrina konkrētus AI darba kravas, ieskaitot sīkregulējumu un servešanu. Gan Google tenzora apstrādes vienības (TPU), gan jaunākie Nvidia GPU ietilpst XLA ierīču kategorijā.

Google ieviesa arī Jetstream, dzinēju, kas ir speciāli izstrādāts, lai darbinātu generatīvās mākslas modeļus, īpaši tekstveidošanas modeļus. Pašlaik ierobežots ar atbalstu TPU, ar gaidāmo GPU saderību nākotnē, Jetstream piedāvā līdz pat 3x lielāku veiktspēju par dolāru modeļiem kā Google Gemma 7B un Meta Llama 2. Šī uzlabotā veiktspēja ir būtiska, jo klienti meklē izdevīgus iedziļināšanās pakotnes, kas sniedz augstu veiktspēju.

“Kamēr Jetstream piedāvā nozīmīgas veiktspējas uzlabojumus, norādītie 3x uzlabojuma specifikas joprojām nav skaidras,” teica Mark Lohmeyer, Google Cloud GM aprēķinu un mašīnmācīšanās infrastruktūras jomā. Jautājumi par izmantojamo TPU ģenerāciju, salīdzināmajiem pamatnostādņiem un veiktspējas definīciju ir izvirzīti. Google ir sazinājies, lai iegūtu turpmāku skaidrojumu.

Vēl viens pieaugums Google atvērtā koda ieguldījumos ir MaxText, kas ir kolekcija tekstveidošanas AI modeļu, kas vērsti uz TPU un Nvidia GPU. Gemma 7B, OpenAI GPT-3, Llama 2 un modeļi no Mistral ir integrēti MaxText. Šie modeļi ir pielāgojami un sīki iestatāmi, lai apmierinātu attīstītāju konkrētās vajadzības. Google ir optimizējis to veiktspēju uz TPU un sadarbojies ar Nvidia, lai uzlabotu veiktspēju uz lieliem GPU klasteriem, rezultātā panākot augstāku enerģijas efektivitāti un izmaksu optimizāciju.

Sadarbībā ar AI sākumposmu Hugging Face, Google ir izveidojis Optimum TPU, lai atvieglotu noteiktas AI darbkravas implementēšanu uz TPU. Galvenais mērķis ir pazemināt ieiejas slieksni, lai pieņemtu generatīvās AI modeļus, īpaši tekstveidošanas modeļus, uz TPU aparatūras. Pašlaik Optimum TPU atbalsta tikai Gemma 7B, un treniņu generatīvo modeļu uz TPU vēl nav atbalstīts. Tomēr Google ir apgalvojis, ka uzlabojumi ir tuvā nākotnē.

Šie atvērtā koda rīki no Google ir potenciāli spējīgi revolucionēt generatīvās AI jomu un atļaut attīstītājiem izpētīt jaunas iespējas. Atverot piekļuvi spēcīgiem AI modeļiem un infrastruktūrai, Google iespējo inovācijas un sadarbību attīstītāju kopienā. Ar solītiem turpmākiem uzlabojumiem un attīstību solīts, nākotne izskatās cerīga generatīvās AI attīstībai.

Bieži uzdotie jautājumi

The source of the article is from the blog myshopsguide.com

Web Story

Privacy policy
Contact