Revolutionerende AI-træningschip fra Meta åbner nye døre til AI-verdenen

Meta, teknologigiganten, har løftet sløret for sin næste generation af Meta Training and Inference Accelerator (MTIA) chip, hvilket lover forbedret effekt og hurtigere modeltræningskapacitet. Denne skræddersyede AI-chip er specifikt designet til at optimere Metas rangerings- og anbefalingsmodeller, hvilket gør træningen mere effektiv og slutopgaver betydeligt lettere.

I en nylig blogpost understregede Meta, at MTIA-chippen er en afgørende komponent i virksomhedens langsigtede strategi for at opbygge banebrydende AI-infrastruktur. Virksomheden forestiller sig, at dens chips sømløst integreres med den eksisterende teknologi og fremtidige fremskridt inden for GPU’er. Med de ambitiøse mål, der er sat for deres brugerdefinerede silicium, anerkender Meta behovet for at investere i forskellige elementer såsom hukommelsesbåndbredde, netværk og kapacitet samt næste generations hardware-systemer.

Origin. annonceret i maj 2023, fokuserede MTIA v1 på at udstyre datacentre med disse avancerede chips. Den kommende næste generation af MTIA-chippen forventes at henvende sig til det samme målgruppe. Overraskende har Meta annonceret, at begge MTIA-chips allerede er i produktion, hvilket afviger fra den oprindelige forudsigelse om at frigive MTIA v1 i 2025.

Selvom den nuværende fokus for MTIA ligger i træning af rangerings- og anbefalingsalgoritmer, har Meta planer om at udvide chippenes muligheder i fremtiden. Målet er at muliggøre træning af generative AI-modeller, såsom Metas anerkendte Llama-sprogmodeller. Ved at tilbyde en optimal balance mellem beregningskraft, hukommelsesbåndbredde og hukommelseskapacitet praler den nye MTIA-chip med imponerende 256MB hukommelse on-chip med 1,3 GHz, hvilket overstiger sin forgænger med 128MB og 800 GHz. Tidlige testresultater har vist en tredobling af præstationen sammenlignet med første generation af MTIA-chippen på tværs af de fire modeller, der blev evalueret af Meta.

Meta har også annonceret sin hensigt om at udvikle yderligere AI-chips. Blandt disse projekter er Artemis, en chip specifikt designet til slutopgaver. Da efterspørgslen efter beregningskraft stiger i takt med den brede anvendelse af AI, har diverse tech-giganter, herunder Google, Microsoft og Amazon, begivet sig ud i at skabe deres egne brugerdefinerede chips. Google introducerede sine TPU-chips i 2017, Microsoft afslørede sine Maia 100-chips, mens Amazon udviklede Trainium 2-chippen, som markant accelererer træningen af fundamentale modeller.

Konkurrencen om kraftig chipanskaffelse eksemplificerer den voksende nødvendighed af brugerdefinerede chips, der effektivt kan køre AI-modeller. Denne efterspørgsel har bidraget til Nvidias imponerende markeddominans, hvilket har resulteret i virksomhedens værdiansættelse på 2 billioner dollars.

Ofte stillede spørgsmål

The source of the article is from the blog enp.gr

Privacy policy
Contact