Meta Platforms per introdurre chip AI personalizzati per una maggiore efficienza

Meta Platforms, la società madre di Facebook, si appresta a implementare i suoi chip di intelligenza artificiale progettati su misura, noti come Artemis, nei suoi data center quest’anno. Questa mossa mira a ridurre la dipendenza dell’azienda dai dominanti chip H100 di Nvidia e ad affrontare i costi in aumento associati all’esecuzione di carichi di lavoro di intelligenza artificiale.

L’integrazione di prodotti di intelligenza artificiale generativa nei servizi come Facebook, Instagram e WhatsApp ha richiesto a Meta di investire miliardi di dollari per aumentare la capacità di calcolo. Ciò ha comportato l’acquisizione di chip specializzati e la riconfigurazione dei data center di conseguenza.

Se il proprio chip di Meta sarà implementato con successo, potrebbe portare a risparmi annuali di energia di centinaia di milioni di dollari e a risparmi di miliardi di dollari per l’acquisto dei chip. Tuttavia, l’azienda continuerà comunque a dipendere dalle GPU H100 di Nvidia nel futuro prossimo. Entro la fine dell’anno, Meta prevede di avere circa 350.000 processori H100 in servizio.

La decisione di sviluppare il proprio chip indica una svolta positiva per il progetto di silicio AI interno di Meta. Nel 2022, l’azienda ha deciso di interrompere l’iterazione iniziale del chip a favore delle GPU di Nvidia. Il nuovo chip, Artemis, condivide il focus del suo predecessore sull’inferenza di intelligenza artificiale, che coinvolge l’utilizzo di algoritmi per fare giudizi di ranking e generare risposte alle sollecitazioni degli utenti.

Un portavoce di Meta ha commentato: “Vediamo i nostri acceleratori sviluppati internamente come altamente complementari alle GPU disponibili commercialmente per offrire la combinazione ottimale di prestazioni ed efficienza sui carichi di lavoro specifici di Meta”.

Nonostante gli sforzi di Meta per ridurre la dipendenza dai processori di Nvidia possano indicare un possibile cambiamento, le GPU di Nvidia continueranno a svolgere un ruolo significativo nell’infrastruttura di intelligenza artificiale di Meta al momento attuale. Tuttavia, l’introduzione di Artemis sottolinea l’impegno di Meta nel migliorare l’efficienza e promuovere l’innovazione nel campo dell’intelligenza artificiale.

FAQ

1. Cosa sta implementando Meta Platforms nei suoi data center quest’anno?
Meta Platforms sta implementando i suoi chip di intelligenza artificiale progettati su misura, noti come Artemis, nei suoi data center.

2. Perché Meta sta implementando i suoi propri chip?
Meta sta implementando i suoi propri chip per ridurre la dipendenza dai chip H100 di Nvidia e affrontare i costi legati all’esecuzione di carichi di lavoro di intelligenza artificiale.

3. In cosa Meta ha investito per aumentare la sua capacità di calcolo?
Meta ha investito miliardi di dollari nell’acquisizione di chip specializzati e nella riconfigurazione dei suoi data center per integrare prodotti di intelligenza artificiale generativa nei servizi come Facebook, Instagram e WhatsApp.

4. Meta sostituirà completamente i chip H100 di Nvidia?
No, Meta dipenderà ancora dalle GPU H100 di Nvidia nel futuro prossimo e prevede di avere circa 350.000 processori H100 in servizio entro la fine dell’anno.

5. Qual è il focus del nuovo chip di Meta, Artemis?
Artemis, il nuovo chip di Meta, si concentra sull’inferenza di intelligenza artificiale, che coinvolge l’utilizzo di algoritmi per fare giudizi di ranking e generare risposte alle sollecitazioni degli utenti.

Definizioni

– Intelligenza artificiale (AI): La simulazione dei processi di intelligenza umana da parte di macchine, in particolare sistemi informatici, che coinvolge attività come l’apprendimento, il ragionamento e la risoluzione di problemi.

– Data center: Strutture utilizzate per ospitare sistemi informatici e componenti associati, come sistemi di telecomunicazione e di archiviazione. Possono memorizzare, elaborare e gestire grandi quantità di dati.

– GPU (Unità di elaborazione grafica): Processori specializzati progettati per gestire compiti complessi di grafica e calcolo parallelo, comunemente utilizzati per applicazioni di intelligenza artificiale e apprendimento automatico.

Link suggeriti correlati:
1. Intelligenza artificiale – Wikipedia
2. Data center – Wikipedia
3. Applicazioni accelerate da GPU Nvidia

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact