Naudojantikalifiacijos lentelės aiškinimą skirta straipsnis

Dirbanti su dirbtinio intelekto (AI) kalifiacijos organizacija MLCommons neseniai išplatino išsamų bandymų ir rezultatų rinkinį, kuriame vertinamas aukštos našumo aparatinės įrangos greitis ir jautrumas vykdant AI programų veiklą. Šie bandymai orientuoti į AI mikroschema ir sistemų efektyvumą generuojant atsakymus iš nepriekaištingų AI modelių, praturtintų išsamiais duomenimis.

Šių bandymų rezultatai suteikia vertingų įžvalgų apie tai, kaip greitai AI taikomosios programos, pvz., ChatGPT, gali pateikti atsakymus į naudotojų užklausas. MLCommons pristatė „Llama 2“ bandymą, kuris ypač vertina klausimų ir atsakymų scenarijų greitį dideliems kalbų modeliams. Meta Platforms sukurtas „Llama 2“ pasižymi įspūdingais 70 milijardų parametrų.

Be „Llama 2“, MLCommons taip pat pristatė MLPerf, kalibravimo įrankį, kuris susitelkė į tekstą į vaizdus. Šis kalibravimas naudoja „Stability AI“ modelį „Stable Diffusion XL“. Serveriai, įrengti su „Nvidia“ H100 mikroschemais, gaminami tokiais gerbiamių įmonių kaip Google ‘s Alphabet, Supermicro ir paties „Nvidia“, pasirodė aiškūs nugalėtojai tiesioginės veiklos prasme teksto į vaizdų generavimo atlaisvinti. Priešingai, įvairūs serverių kūrėjai taip pat pateikė projektus, pagrįstus „Nvidia“ L40S mikroschemais, kurie, nors mažiau galingi, vis dar išsilaikė vaizdo generavimo bandymuose.

Krai, serverių kūrėjas, pasirinko kitą kelią, pateikdamas dizainą, kuriame naudojamas „Qualcomm“ AI mikroschema vaizdo generavimo bandymui. Ši alternatyvi mikroschema išnaudojo daug mažiau energijos palyginti su „Nvidia“ pažangiomis procesoriais, demonstruojant aplinkai draugiškesnį požiūrį. Intel taip pat pateikė dizainą, kurio pagrindu yra „Gaudi2“ greitintuvo mikroschemos, apibūdinamas kaip „tvirtas”.

Nors tiesioginė veikla išlieka svarbi faktorius diegiant AI programas, pažangiomis AI mikroschemais suvartojama energija yra svarbus rūpestis pramonei. AI įmonės siekia sukurti mikroschemas, kurios siūlo optimalią veiklą, minimalindamos energijos naudojimą. Dėl to MLCommons turi atskirą kalifiacijos kategoriją, skirtą energijos suvartojimui matuoti.

Šie naujausi kalibravimo rezultatai suteikia vertingos informacijos tiek AI aparatinės įrangos gamintojams, tiek įmonėms, norinčioms įdiegti AI programas. Pabrėždami tiek greitį, tiek efektyvumą, šie bandymai tampa svarbiu ištekliu skatinant AI technologijos pažangą.

Dažniausiai užduodami klausimai:

K: Kokie nauji MLCommons įvedė kalibravimai?
A: MLCommons pristatė kalibravimus, kurie matuoja AI mikroschema ir sistemų greitį ir efektyvumą generuojant atsakymus iš galingų AI modelių, taip pat kalibravimą tekstą į vaizdus.

K: Kurie serveriai pasirodė ypatingai gerai kalibravimuose?
A: Serveriai, įrengti su „Nvidia“ H100 mikroschemais, kurie pagaminti tokiomis gerbiamomis įmonėmis kaip Google ‘s Alphabet, Supermicro ir paties „Nvidia“, pasirodė puikiais veikimais bandymuose.

K: Ar kokios nors dizaino savybės, kuriose naudojamos alternatyvios mikroschemos, parodė žadančius rezultatus?
A: Taip, serverių kūrėjas vardu „Krai” pateikė dizainą su „Qualcomm“ AI mikroschema, kuri parodė ženkliai didesnį energijos efektyvumą vaizdo generavimo bandymuose.

K: Kodėl energijos suvartojimas yra svarbus apsvarstymas AI kompanijoms?
A: Pažangioms AI mikroschemoms būdingas žymus energijos suvartojimas, todėl energijos efektyvumas yra pagrindinis iššūkis AI kompanijoms, kurios siekia optimizuoti veiklą, minimalindamos energijos naudojimą.

K: Kaip šie kalibravimai naudingi AI industrijai?
A: Kalibravimų rezultatai teikia vertingą informaciją tiek AI aparatinės įrangos gamintojams, tiek įmonėms, įgyvendinančioms AI programas, padedant pažangai ir AI technologijos plėtrai.

Daugiau informacijos apie MLCommons ir jų kalibravimus rasite jų oficialioje svetainėje: mlcommons.org.

[įterpti]https://www.youtube.com/embed/GyllRd2E6fg[/įterpti]

The source of the article is from the blog toumai.es

Privacy policy
Contact