AI-teknologi: Effektivitet og Miljøvennlege AI-brikker

Kunstig intelligens benchmarking-organisasjon MLCommons har nyleg publisert ein omfattande serie av tester og resultat som evaluerer farten og responsen til høyytelseshardware når det kjører AI-applikasjonar. Dei nye testane fokuserer på å måle effektiviteten til AI-brikker og system i å generere svar frå robuste AI-modellar som er berika med omfattande data.

Resultata frå desse testane gir verdifulle innsikter i farten som AI-applikasjonar, som ChatGPT, leverer svar til brukarane. Eitt av testane, kalla Llama 2, vurderer spesifikt farten til spørsmål-og-svar-scenario for store språkmodellar. Utvikla av Meta Platforms, har Llama 2 imponerande 70 milliardar parameterar.

MLCommons har også introdusert eit anna benchmark-verktøy i deira samling, kalla MLPerf. Denne nye tillegget fokuserer på tekst-til-bilde-generering og nyttar Stability AI’s Stable Diffusion XL-modell. Når evaluert, peikte servere utstyrt med Nvidia’s H100-brikker, produsert av anerkjente selskap som Google’s Alphabet, Supermicro, og Nvidia sjølv, seg som dei store vinnarane i rå ytelse. I motsetning til dette, sendte ulike serverbyggjarar design basert på Nvidia’s L40S-brikker, som er mindre kraftig, men likevel gjorde det godt i bildegenereringsbenchmarken.

Krai, ein serverbyggjar, gjekk ein annan veg ved å sende ein design som brukte ein Qualcomm AI-brikke for bildegenereringsbenchmarken. Denne alternative brikken brukte betydeleg mindre straum samanlikna med Nvidias toppteknologiske prosessorar, og viste ein meir energieffektiv tilnærming. Intel sendte og ein design med deira Gaudi2 akseleratorbrikker, og heidra utfallet som «solid.»

Sjølv om rå ytelse framleis er ein vesentleg faktor for å sette ut AI-applikasjonar, er energiforbruket til avanserte AI-brikker ein signifikant bekymring for industrien. AI-selskap strevar etter å utvikle brikker som tilbyr optimal ytelse medan dei minimerer strømbruk. Som eit resultat har MLCommons ein eigen benchmark-kategori dedikert til å måle strømforbruk.

Desse siste benchmarkresultata gir verdifull informasjon både for AI-hardwareprodusentar og selskap som ønsker å implementere AI-applikasjonar. Ved å framheve både fart og effektivitet, fungerer desse testane som ei uvurderleg ressurs for å fremja utviklinga av AI-teknologi.

Spørsmål og svar:

Spørsmål: Kva er dei nye benchmarkane som MLCommons introduserte?
Svar: MLCommons introduserte benchmarkar som måler farten og effektiviteten til AI-brikker og system i å generere svar frå kraftige AI-modellar, samt ein benchmark for tekst-til-bilde-generering.
Spørsmål: Kva serverar presterte eksepsjonelt godt i testane?
Svar: Serverar utstyrt med Nvidia’s H100-brikker, bygd av selskap som Google’s Alphabet, Supermicro, og Nvidia sjølv, viste framragande ytelse i testane.
Spørsmål: Viste nokre design med alternative brikker lovande resultat?
Svar: Ja, ein serverbyggjar ved namn Krai sendte ein design med ein Qualcomm AI-brikke som viste betydeleg energieffektivitet i bildegenereringsbenchmarken.
Spørsmål: Kvifor er strømforbruket viktig for AI-selskap?
Svar: Avanserte AI-brikker forbruker betydeleg mengde energi, noko som gjer strømeffektivitet til ein nøkkelfaktor for AI-selskap som ønsker å optimere ytelsen medan dei minimerer strømbruket.
Spørsmål: Korleis gagnar desse benchmarkane AI-industrien?
Svar: Benchmarkresultata gir verdifulle innsikter for AI-hardwareprodusentar og selskap som implementerer AI-applikasjonar, noko som hjelper til med framdrift og utvikling av AI-teknologi.

For meir informasjon om MLCommons og deira benchmarkar, besøk deira offisielle nettstad: mlcommons.org.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact