Den nyeste revolution inden for AI: Cerebras præsenterer næste generation af chips til store AI-modeller

Cerebras Systems, en kunstig intelligens (AI) startup, har netop afsløret en banerbrekende nyhed med lanceringen af deres meget forventede AI-chip, Wafer-Scale Engine 3 (WSE-3). Denne topmoderne chip leverer en imponerende dobbelt så god ydelse som sin forgænger, WSE-2, ifølge Cerebras. WSE-3 er specifikt designet til at imødekomme organisationer, der ønsker at træne store AI-modeller, hvilket gør den til en kraftfuld komponent i Cerebras’ CS-3 AI-supercomputer.

Cerebras’ CS-3 AI-supercomputer praler med fire forskellige systemkonfigurationer, der har evnen til at finjustere 70 milliarder parametere, herunder Meta’s Llama 2, på en enkelt dag. Denne hidtil usete hastighed og effektivitet gør CS-3 til et gamechanger inden for AI-teknologiens verden.

Udover WSE-3-chippet afslørede Cerebras også et samarbejde med Abu Dhabi-baserede teknologiske holdingselskab G42 om at opføre det tredje klynge af deres AI-supercomputere, kendt som Condor Galaxy 3. Denne klynge vil besidde en imponerende regnekraft på 8 exaflops og 58 millioner AI-optimerede kerner. Cerebras hævder, at denne infrastruktursniveau placerer Condor Galaxy 3 blandt de mest avancerede AI-systemer, optimeret til omfattende videnskabelige simulationer og træning af enorme AI-modeller, der anvendes i billed- og talegenkendelsesapplikationer.

Store AI-modeller bliver i stigende grad udbredt i AI-fællesskabet, da flere leverandører anerkender vigtigheden af at skalere modelstørrelser. Tirias Research-grundlægger Jim McGregor bekræfter denne tendens og påpeger, at mens mindre sprogmodeller er blevet populære, kræver skridtet mod video-generering større beregningskapacitet, hvilket fører til produktion af stadig større modeller.

Ifølge en undersøgelse foretaget af analysefirmaet Intersect360 Research, stræber over en tredjedel af brugerne inden for high-performance computing efter at opbygge deres egne generative AI-modeller. Cerebras’ WSE-3 AI-chip og CS-3-systemer har potentialet til at imødekomme behovene hos disse brugere, da de tilbyder dobbelt så god ydelse til samme omkostning og strømforbrug sammenlignet med andre acceleratorer, der almindeligt bruges til sådanne systemer.

Trods Cerebras’ fordelagtige evne til at behandle enorme datamængder på utrolig kort tid, betragtes virksomheden stadig som mindre i forhold til den dominerende AI-hardware-/softwareleverandør, Nvidia. McGregor antyder dog, at Cerebras har haft succes ved at fokusere på træning og udvide til andre områder ud over deres niche, såsom inferens. Denne ekspansion understreges af Cerebras’ samarbejde med Qualcomm Technologies’ AI 100 Ultra-system til acceleration af inferens.

Cerebras’ tilgang til at behandle store sprogmodeller (LLM’er) sætter dem fra konkurrenterne som Nvidia. Mens andre leverandører er afhængige af at skalere tusindvis af GPU’er, kan Cerebras behandle LLM’er i et enkelt system. Dog skal brugerne køre systemet konsekvent for at opnå en positiv investeringsafkastning og dermed fuldt ud udnytte denne fordel.

Efterspørgslen efter generative AI har oversteget udbuddet fra førende leverandører som Nvidia, hvilket skaber en fordelagtig position for startups som Cerebras. Mens branchen omfavner potentialet i generative AI, står Cerebras til at drage fordel af denne voksende efterspørgsel og skabe sig en unik plads på markedet.

FAQ:

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact