Ny Teknologi inom AI: Cerebras Presenterar Nästa Generation Chips för Stora AI-modeller

Cerebras Systems, en uppstickare inom artificiell intelligens (AI), har gjort en banbrytande tillkännagivelse med släppet av sin mycket efterlängtade AI-chip, Wafer-Scale Engine 3 (WSE-3). Denna toppmoderna chip levererar enastående dubbelt så stor prestanda som sin föregångare, WSE-2, enligt Cerebras. WSE-3 är specifikt utformad för att tillgodose organisationer som söker träna stora AI-modeller, vilket gör den till en kraftfull komponent i Cerebras CS-3 AI-superdator.

Cerebras CS-3 AI-superdator skryter med fyra olika systemkonfigurationer som har förmågan att finjustera 70 miljarder parametermodeller, inklusive Metas Llama 2, inom loppet av en enda dag. Denna enastående hastighet och effektivitet gör CS-3 till en game-changer inom AI-teknologins värld.

Förutom WSE-3 chipet, avslöjade Cerebras även sitt samarbete med Abu-Dhabi-baserade teknologiföretaget G42 för att bygga den tredje klustret av sina AI-superdatorer, känd som Condor Galaxy 3. Detta kluster förväntas ha imponerande 8 exaflops av AI-processorkraft och 58 miljoner AI-optimerade kärnor. Cerebras hävdar att denna infrastrukturnivå placerar Condor Galaxy 3 bland de mest avancerade AI-systemen, optimerade för omfattande vetenskapliga simuleringar och träning av enorma AI-modeller som används inom bild- och taligenkänningsapplikationer.

Stora AI-modeller blir allt vanligare inom AI-samhället, då fler leverantörer erkänner vikten av att skala upp modellstorlekar. Tirias Research-grundaren Jim McGregor bekräftar denna trend och hävdar att medan mindre språkmodeller har blivit populära, kräver framsteg inom videoproduktion större beräkningskapacitet, vilket leder till produktionen av allt större modeller.

Enligt en undersökning utförd av analysföretaget Intersect360 Research strävar över en tredjedel av användarna inom högpresterande beräkningar att bygga sina egna generativa AI-modeller. Cerebras WSE-3 AI-chip och CS-3 system har potential att tillgodose behoven hos dessa användare, då de erbjuder dubbel prestanda till samma kostnad och energiförbrukning jämfört med andra acceleratorer som vanligtvis används för sådana system.

Trots Cerebras fördel med att kunna bearbeta enorma mängder data på otroligt korta tidsramar, betraktas företaget fortfarande som mindre jämfört med den dominerande AI-hårdvaru-/mjukvaruleverantören, Nvidia. McGregor föreslår dock att Cerebras har lyckats genom att fokusera på träning och expandera till andra områden utanför sin nisch, såsom inferens. Denna expansion illustreras av Cerebras samarbete med Qualcomm Technologies AI 100 Ultra-system för att påskynda inferens.

Cerebras tillvägagångssätt för att bearbeta stora språkmodeller (LLM) skiljer dem från konkurrenter som Nvidia. Medan andra leverantörer förlitar sig på att skala tusentals GPU:er kan Cerebras bearbeta LLM:er i ett enda system. För att fullt ut dra nytta av denna fördel måste användare köra systemet kontinuerligt för att uppnå en positiv avkastning på investeringen.

Efterfrågan på generativ AI har överskridit utbudet från ledande leverantörer som Nvidia, vilket ger en fördelaktig position för startföretag som Cerebras. När branschen omfamnar potentialen för generativ AI har Cerebras möjlighet att dra nytta av denna växande efterfrågan och skapa sin unika plats på marknaden.

FAQ:

Q: Vad heter Cerebras Systems senaste AI-chip?
A: Cerebras Systems senaste AI-chip kallas Wafer-Scale Engine 3 (WSE-3).

Q: Hur jämför sig prestandan hos WSE-3 med sin föregångare?
A: WSE-3 levererar dubbelt så stor prestanda som sin föregångare, WSE-2.

Q: Vad är syftet med Cerebras CS-3 AI-superdator?
A: CS-3 AI-superdatorn är utformad för att möjliggöra effektiv träning av stora AI-modeller.

Q: Vad heter den tredje klustret av AI-superdatorer som byggs av Cerebras?
A: Den tredje klustret som konstrueras av Cerebras kallas Condor Galaxy 3.

Q: Vilken processorkraft och kärnantal har Condor Galaxy 3?
A: Condor Galaxy 3 förväntas ha 8 exaflops av AI-processorkraft med 58 miljoner AI-optimerade kärnor.

Q: Hur skiljer sig Cerebras tillvägagångssätt för att bearbeta stora språkmodeller (LLM) från konkurrenter?
A: Cerebras kan bearbeta LLM:er i ett enda system, medan konkurrenter förlitar sig på att skala tusentals GPU:er.

Definitioner:

  • Artificiell intelligens (AI): Simuleringen av mänskliga intelligensprocesser av maskiner, vanligtvis utförd genom datorsystem, för att utföra uppgifter såsom taligenkänning, beslutsfattande och problemlösning.
  • AI-chip: En specialiserad mikrochip utformad för att utföra AI-relaterade beräkningar och uppgifter med hög effektivitet.
  • Wafer-Scale Engine (WSE): En specifik serie av AI-chips utvecklade av Cerebras Systems för högpresterande beräkningar och träning av stora AI-modeller.
  • Exaflops: En enhet för beräkningstakt som representerar en kvintiljon (10^18) flyttalsoperationer per sekund (FLOPS), vanligtvis använd för att mäta superdatorers beräkningskapacitet.

Föreslagna relaterade länkar:

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact