Nya AI Benchmark-resultat visar hastighet och effektivitet hos topphårdvara

Artificiell Intelligens (AI) benchmarking-organisationen MLCommons har nyligen publicerat en omfattande uppsättning tester och resultat som utvärderar hastighet och lyhördhet hos högpresterande hårdvara vid körning av AI-applikationer. Dessa benchmark fokuserar på att mäta effektiviteten hos AI-chips och system när de genererar svar från robusta AI-modeller förvaltade med omfattande data.

Resultaten från dessa tester ger värdefulla insikter om den hastighet varmed AI-applikationer, såsom ChatGPT, kan leverera svar på användarfrågor. MLCommons introducerade Llama 2-benchmarken, som specifikt bedömer hastigheten på fråge-och-svars-scenarier för stora språkmodeller. Utvecklad av Meta Platforms, har Llama 2 imponerande 70 miljarder parametrar.

Utöver Llama 2 har MLCommons även introducerat MLPerf, en benchmarking-verktyg som fokuserar på text-till-bild-generering. Denna benchmark använder Stability AI’s Stable Diffusion XL-modell. Servrar utrustade med Nvidias H100-chips, producerade av företag som Google’s Alphabet, Supermicro, och Nvidia själv, framkom som de tydliga vinnarna i termer av råprestanda för text-till-bild-generering. Diverse serverbyggare skickade även in design baserade på Nvidias L40S-chips, vilka visade konkurrenskraftig prestanda i samma benchmark.

Krai, en serverbyggare, valde en annorlunda väg genom att skicka in en design som utnyttjade en Qualcomm AI-chip för bildgenererings-benchmarken. Denna alternativa chip visade mycket bättre energieffektivitet jämfört med Nvidias processorer och betonade ett mer miljövänligt tillvägagångssätt. Intel skickade också in en design med sina Gaudi2-acceleratorchips, vilket resulterade i ”solid” prestanda enligt dem.

Medan råprestanda förblir en avgörande faktor vid implementering av AI-applikationer, är energiförbrukningen hos avancerade AI-chips av stor vikt för branschen. AI-företag strävar efter att utveckla chips som erbjuder optimal prestanda samtidigt som de minimerar energiförbrukningen. Av denna anledning har MLCommons en separat benchmarking-kategori dedikerad till att mäta energiförbrukning.

Dessa senaste benchmark-resultaten ger värdefull information för både AI-hårdvarutillverkare och företag som vill implementera AI-applikationer. Genom att belysa både hastighet och effektivitet, fungerar dessa tester som en viktig resurs för att främja framstegen inom AI-teknologin.

FAQ:

F: Vilka är de nya benchmark som introducerats av MLCommons?
S: MLCommons introducerade benchmark som mäter hastighet och effektivitet hos AI-chips och system vid generering av svar från kraftfulla AI-modeller, samt ett benchmark för text-till-bild-generering.

F: Vilka servrar presterade exceptionellt bra i benchmarken?
S: Servrar utrustade med Nvidias H100-chips, byggda av företag som Google’s Alphabet, Supermicro och Nvidia själva, visade enastående prestanda i testerna.

F: Visade några design med alternativa chips lovande resultat?
S: Ja, en serverbyggare vid namn Krai skickade in en design med en Qualcomm AI-chip som uppvisade betydande energieffektivitet i bildgenererings-benchmarken.

F: Varför är energiförbrukning ett viktigt övervägande för AI-företag?
S: Avancerade AI-chips förbrukar betydande mängder energi, vilket gör energieffektivitet till en nyckelfråga för AI-företag som strävar efter att optimera prestanda samtidigt som de minimerar energiåtgången.

F: Hur gynnar dessa benchmark AI-branschen?
S: Benchmark-resultaten ger värdefulla insikter för AI-hårdvarutillverkare och företag som implementerar AI-applikationer, vilket hjälper till att främja utvecklingen och framstegen inom AI-teknologin.

För mer information om MLCommons och deras benchmark, besök deras officiella hemsida: mlcommons.org.

The source of the article is from the blog elektrischnederland.nl

Privacy policy
Contact