메타 플랫폼, 향상된 효율성을 위한 맞춤형 AI 칩 도입

메타 플랫폼, 페이스북의 모회사인 메타 플랫폼은 올해 자사의 데이터 센터에 자체 설계된 인공지능 칩인 아르테미스를 도입할 예정입니다. 이번 도입은 Nvidia의 우위를 점하는 H100 칩에 대한 의존도를 낮추고 AI 워크로드 운영에 따른 비용 상승에 대응하기 위한 것입니다.

페이스북, 인스타그램, WhatsApp과 같은 서비스에 생성적인 AI 제품을 통합하기 위해 메타가 자체 컴퓨팅 능력을 강화하기 위해 수천억 달러를 투자해야 했습니다. 이는 특수 칩을 입수하고 데이터 센터를 재구성하는 것을 포함합니다.

메타 자체 칩의 성공적인 도입은 연간 에너지 비용 절감 액수 억 달러와 칩 구매 비용 수천억 달러에 이를 수 있을 것입니다. 그러나 메타는 장기적으로 Nvidia의 H100 GPU에 여전히 의존할 예정입니다. 올해 말까지 메타는 약 35만 개의 H100 프로세서를 사용할 계획입니다.

자체 칩 개발 결정은 메타의 디자인 AI 실리콘 프로젝트가 긍정적인 방향으로 전환되었다는 것을 의미합니다. 회사는 2022년에 자체 칩의 초기 버전을 중단하고 Nvidia의 GPU를 선호했습니다. 새로운 칩 아르테미스는 이전 버전과 동일하게 AI 추론에 초점을 맞추며, 이는 알고리즘을 사용하여 순위 판단과 사용자 프롬프트에 대한 응답을 생성하는 것을 의미합니다.

메타의 대표는 “우리는 내부 개발 가속기가 메타 특화 워크로드에 대한 성능과 효율성의 최적 조합을 제공하는 상용 GPU와 매우 상호 보완적으로 작용한다고 보고 있습니다.”라고 말했습니다.

Nvidia 프로세서에 대한 의존도를 줄이기 위한 메타의 노력은 잠재적인 변화를 시사할 수 있지만, 현재 상황에서 Nvidia의 GPU는 메타의 AI 인프라에서 여전히 중요한 역할을 할 것입니다. 그러나 아르테미스의 도입은 메타가 효율성을 향상시키고 인공지능 분야에서 혁신을 추진하기 위한 커밋먼트를 강조하는 것입니다.

자주 묻는 질문

1. 올해 메타 플랫폼이 데이터 센터에 도입하는 것은 무엇인가요?
메타 플랫폼은 자체 설계한 인공지능 칩인 아르테미스를 데이터 센터에 도입하고 있습니다.

2. 왜 메타는 자체 칩을 도입하고 있나요?
메타는 Nvidia의 H100 칩에 대한 의존도를 낮추고 AI 워크로드 운영에 따른 비용을 해결하기 위해 자체 칩을 도입하고 있습니다.

3. 메타는 컴퓨팅 능력을 강화하기 위해 어떻게 투자했나요?
메타는 생성적인 AI 제품을 페이스북, 인스타그램, WhatsApp과 같은 서비스에 통합하기 위해 수천억 달러를 투자하고, 특수 칩을 입수하고 데이터 센터를 재구성하는 등의 노력을 기울였습니다.

4. 메타는 Nvidia의 H100 칩을 완전히 대체할까요?
아니요, 메타는 장기적으로 Nvidia의 H100 GPU에 의존할 것이며, 올해 말까지 약 35만 개의 H100 프로세서를 사용할 계획입니다.

5. 메타의 새로운 칩 아르테미스는 무엇에 초점을 맞추고 있나요?
메타의 새로운 칩 아르테미스는 AI 추론에 초점을 맞추고 있으며, 이는 알고리즘을 사용하여 순위 판단을 내리고 사용자 프롬프트에 대한 응답을 생성하는 작업을 포함합니다.

정의

– 인공지능 (AI): 컴퓨터 시스템을 통해 학습, 추론, 문제 해결 등과 같은 작업을 수행하는 등 기계에 의한 인간의 지능 프로세스를 모방한 것입니다.

– 데이터 센터: 컴퓨터 시스템 및 통신 및 저장 시스템과 같은 관련 구성 요소를 보관하는 시설입니다. 대량의 데이터를 저장, 처리 및 관리할 수 있습니다.

– GPU (그래픽 처리 장치): 복잡한 그래픽 및 병렬 컴퓨팅 작업을 처리하기 위해 설계된 특수 프로세서로, 주로 AI 및 기계 학습 응용 프로그램에 사용됩니다.

권장 관련 링크:
1. 인공지능 – 위키피디아
2. 데이터 센터 – 위키피디아
3. Nvidia GPU 가속 애플리케이션

The source of the article is from the blog crasel.tk

Privacy policy
Contact