미래를 주도하는 AI 신기술: Nvidia, 강력한 블랙웰 슈퍼칩 공개

Nvidia가 다음 세대 GPU들을 통해 AI의 미래가 선도될 것이라 발표했습니다. CEO 제인슨 황은 Nvidia GTC 2024 행사에서 새로운 블랙웰 칩을 선보였는데, 이를 통해 AI 성능과 효율성에서 큰 발전이 예상됩니다.

블랙웰의 핵심인 플래그십 “슈퍼칩”인 GB200는 올해 나중에 출시될 예정입니다. 이는 한 랙에서 전체 데이터 센터까지 확장될 수 있는 뛰어난 능력을 지니고 있어, Nvidia가 AI 분야에서 선두주자의 위치를 공고히 하는 역할을 할 것으로 예상됩니다.

블랙웰은 이전 제품인 호퍼와 비교하여 상당한 발전을 이뤘습니다. 특히, 블랙웰은 2개의 GPU 다이에 각각 2080억 개의 트랜지스터를 보유하고 있는데, 이는 호퍼의 800억개와 비교할 때 상당한 증가입니다. 이러한 GPU 다이들은 10TB/초의 고속 칩 간 연결을 통해 연결되어 하나로 통합되어 강력한 GPU를 형성합니다. 이 혁신적인 업그레이드로 블랙웰은 호퍼의 AI 추론 성능의 최대 30배를 제공할 뿐만 아니라, 현재 제공되는 경쟁 제품들을 능가하는 20페타플롭의 FP4 파워를 제공합니다.

CEO 제인슨 황은 블랙웰과 호퍼 간의 현저한 성능 향상을 강조했을 뿐만 아니라, 그 크기에 대해서도 언급했습니다. 황은 “블랙웰은 칩이 아니라 플랫폼의 이름입니다. 호퍼는 훌륭하지만, 우리는 더 큰 GPU가 필요합니다”라고 말했습니다.

Nvidia는 블랙웰이 이전 제품에 비해 25배까지의 비용과 에너지 절감 효과를 제공한다고 주장합니다. 예를 들어, 이전에 1.8조 개의 파라미터를 가진 모델을 훈련하기 위해서는 8,000개의 호퍼 GPU가 필요했고 15메가와트의 전력이 소모되었지만, 이제 2,000개의 블랙웰 GPU로 이를 달성할 수 있고 전력 소모도 4메가와트로 줄일 수 있습니다.

GB200은 Nvidia B200 Tensor Core GPU 2개와 Grace CPU를 결합하여 AI 개발을 견인하는 거대한 슈퍼칩을 만들어냈습니다. 이는 H10O 기반 시스템보다 7배의 성능과 4배의 훈련 속도를 제공합니다.

게다가, Nvidia는 576개의 GPU 간의 원활한 통신을 가능케 하는 인상적인 500억 개의 트랜지스터를 탑재한 다음 세대 NVLink 네트워크 스위치 칩을 공개했습니다. 이 첨단 기술은 탁월한 1.8TB/초의 양방향 대역폭을 생성합니다.

Nvidia는 이미 주요 산업 파트너사들과 블랙웰을 기반으로 하는 시스템을 개발하기 위한 협력을 맺었습니다. AWS, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure 등 주요 기업들이 이 강력한 기술을 자사의 제품에 통합하기로 약속했습니다.

AI 수요가 계속해서 증가함에 따라, Nvidia의 블랙웰 슈퍼칩은 산업을 혁신시키며, AI 개발과 구현에서 진보와 혁신을 이끌어낼 것으로 예상됩니다.

블랙웰에 대한 자세한 정보는 Nvidia의 공식 웹사이트에서 확인하실 수 있습니다: https://www.nvidia.com

자주 묻는 질문 (FAQ)

The source of the article is from the blog elperiodicodearanjuez.es

Privacy policy
Contact