Nye AI Benchmarking Resultater Fremviser Hastighed og Effektivitet af Top Hardware

Kunstig intelligens benchmarking organisationen MLCommons har for nylig offentliggjort en omfattende række af tests og resultater, der evaluerer hastigheden og reaktionsdygtigheden af højtydende hardware til kørsel af AI-applikationer. Disse nytilføjede benchmark tests fokuserer på at måle effektiviteten af AI-chips og systemer i at generere svar fra robuste AI-modeller beriget med omfattende data.

Resultaterne af disse tests giver værdifulde indsigter i den hastighed, hvormed AI-applikationer såsom ChatGPT kan levere svar på brugerforespørgsler. En af benchmark testsene, kaldet Llama 2, vurderer specifikt hastigheden af spørgsmål- og svarscenarier for store sprogmodeller. Udviklet af Meta Platforms, praler Llama 2 med imponerende 70 milliarder parametre.

MLCommons introducerede også et andet benchmarking værktøj til deres suite, ved navn MLPerf. Dette nye tilføjelse fokuserer på tekst-til-billede generering og udnytter Stability AI’s Stable Diffusion XL model. Ved evalueringen viste servere udstyret med Nvidias H100 chips, produceret af anerkendte virksomheder som Google’s Alphabet, Supermicro og Nvidia selv, sig som de klare vindere med hensyn til rå ydeevne. I modsætning hertil indsendte forskellige serverbyggere designs baseret på Nvidias L40S chips, som er mindre kraftfulde, men stadig klarede sig godt i billede genereringsbenchmarken.

Krai, en serverbygger, tog en anden tilgang ved at indsende et design, der anvendte en Qualcomm AI-chip til billede genereringsbenchmarken. Denne alternative chip trak markant mindre strøm sammenlignet med Nvidias topmoderne processorer, hvilket viser en mere energieffektiv tilgang. Intel indsendte også et design med deres Gaudi2 accelerator chips, og roste resultatet som “solidt”.

Mens rå ydeevne forbliver en afgørende faktor i implementeringen af AI-applikationer, er energiforbruget af avancerede AI-chips en betydelig bekymring for branchen. AI-virksomheder stræber efter at udvikle chips, der tilbyder optimal ydeevne samtidig med at minimere energiforbruget. Som følge heraf har MLCommons en separat benchmarking kategori dedikeret til at måle energiforbruget.

Disse seneste benchmark resultater giver værdifuld information for både AI-hardwareproducenter og virksomheder, der ønsker at implementere AI-applikationer. Ved at fremhæve både hastighed og effektivitet fungerer disse tests som en vital ressource i at fremme udviklingen af AI-teknologi.

FAQ:

Q: Hvad er de nye benchmarks introduceret af MLCommons?
A: MLCommons har introduceret benchmarks, der måler hastigheden og effektiviteten af AI-chips og systemer i at generere svar fra kraftfulde AI-modeller, samt et benchmark for tekst-til-billede generering.

Q: Hvilke servere klarede sig exceptionelt godt i benchmarksene?
A: Servere udstyret med Nvidias H100 chips, bygget af virksomheder som Google’s Alphabet, Supermicro og Nvidia selv, viste enestående ydeevne i testene.

Q: Demonstrerede nogen designs med alternative chips lovende resultater?
A: Ja, en serverbygger ved navn Krai indsendte et design med en Qualcomm AI-chip, der viste betydelig energieffektivitet i billede genereringsbenchmarken.

Q: Hvorfor er energiforbrug en vigtig overvejelse for AI-virksomheder?
A: Avancerede AI-chips forbruger betydelige mængder energi, hvilket gør energieffektivitet til en central udfordring for AI-virksomheder, der ønsker at optimere ydeevnen samtidig med at minimere energiforbruget.

Q: Hvordan gavner disse benchmarks AI-branchen?
A: Benchmark resultaterne giver værdifulde indsigter for AI-hardwareproducenter og virksomheder, der implementerer AI-applikationer, hvilket bidrager til fremskridt og udvikling af AI-teknologien.

For mere information om MLCommons og deres benchmarks, besøg deres officielle hjemmeside: mlcommons.org.

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact