Les Nouvelles Frontières de l’Innovation chez Nvidia dans le Domaine des Plates-formes Informatiques pour Datacenters

Nvidia, une entreprise technologique renommée, possède une riche histoire de transformation, passant de fournisseur de composants à un créateur de plateformes de premier plan. Leurs plates-formes informatiques combinent calcul, stockage, réseau et logiciels système pour créer une base solide pour le développement d’applications. Explorez l’évolution des plates-formes informatiques pour datacenters de Nvidia et les innovations révolutionnaires qu’ils ont introduites.

En avril 2016, Nvidia a dévoilé sa première plateforme, le système DGX-1. Alimenté par les accélérateurs GPU « Pascal » P100 et les ports NVLink, cette plateforme a révolutionné le concept d’un cluster de mémoire partagée. Notamment, le système DGX-1 inaugural a été personnellement livré par le PDG de Nvidia, Jense Huang, à Sam Altman, cofondateur d’OpenAI, démontrant l’engagement de l’entreprise à faire progresser les capacités d’intelligence artificielle (IA).

Avec le lancement de la génération GPU « Volta » V100 en mai 2017, Nvidia a amélioré la conception du DGX-1. Le système a connu une augmentation de 41,5 % des performances, offrant un boost considérable dans les cœurs FP32 et FP64 CUDA. De plus, l’introduction des cœurs tensoriels et des calculs FP16 à demi-précision a encore amélioré l’efficacité de la plateforme. Le DGX-1 présentait également un traitement INT8, renforçant les capacités d’inférence en IA.

Poussant l’innovation en IA à un niveau supérieur, Nvidia a introduit la plateforme DGX-2 en mai 2018. Ce système révolutionnaire incorporait douze ASICs NVSwitch, utilisant des ports mémoire de 300 Go/s et une bande passante bidirectionnelle de 4,8 To/s. Associé à seize GPU V100, six commutateurs PCI-Express 4.0, deux processeurs Intel Xeon SP Platinum et des interfaces réseau InfiniBand de 100 Gb/s, le DGX-2 offrait des performances sans précédent. De plus, Nvidia a pu réduire le ratio performance/prix de 28 %, en faisant un élément pivot dans l’espace de l’IA.

En mai 2020, Nvidia a lancé le système DGX A100, exploitant la puissance de la génération GPU « Ampere ». Avec des ports NVLink 3.0 améliorés, offrant un doublement de la bande passante, le DGX A100 se vantait de huit GPU A100 et d’une paire de processeurs AMD « Rome » Epyc 7002. Accompagné de 1 To de mémoire principale, de 15 To de stockage flash, et de neuf interfaces Mellanox ConnectX-6, il s’est imposé comme une plateforme informatique redoutable. L’acquisition de Mellanox Technologies par Nvidia a en outre renforcé leur capacité à créer et à mettre à l’échelle de grands clusters, facilitant l’intégration de centaines et de milliers de systèmes A100.

En mars 2022, Nvidia a dévoilé la génération d’accélérateur GPU « Hopper » H100, marquant un autre jalon dans leurs plates-formes informatiques pour datacenters. En introduisant le processeur Grace CG100 Arm server CPU et en améliorant les performances et la mémoire GPU, Nvidia a renforcé le complexe GPU Hopper. La plateforme se vantait de ports NVLink 4.0 avec 900 Go/s de bande passante, offrant des capacités de calcul accrues. L’intégration par Nvidia des algorithmes de calcul SHARP en réseau dans l’ASIC NVSwitch 3 a en outre optimisé les opérations collectives et de réduction au sein du réseau.

La plateforme de pointe DGX H100 de Nvidia intègre le complexe GPU Hopper. Cette conception met en avant la puissance de quatre ASICs NVSwitch 3 à double puce, offrant une bande passante et des capacités de traitement inégalées. Avec une capacité de 1 exaflops en précision FP8 et 192 téraflops de traitement en réseau SHARP, le DHX H100 SuperPOD est une solution puissante pour les charges de travail en IA. Ses impressionnants 20 To de mémoire HBM3 et son interconnect cohérent assurent des performances fluides.

Questions Fréquemment Posées

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact