새로운 NVIDIA Grace CPU C1은 주요 원본 설계 제조업체 파트너들과 함께 AI 워크로드 처리를 가속화하고 있습니다.
확장을 거듭하는 NVIDIA Grace CPU 라인업에는 강력한 NVIDIA Grace Hopper 슈퍼칩과 플래그십 Grace Blackwell 플랫폼이 포함되는데요, 이를 통해 까다로운 AI 워크로드를 처리하는 주요 기업들에게 상당한 효율성과 성능 향상을 제공하죠.
AI가 빠르게 발전함에 따라 거대 언어 모델(LLM)부터 복잡한 시뮬레이션까지, 다양한 애플리케이션을 위한 데이터센터 설계에서 전력 효율성은 중요한 요소입니다.
NVIDIA Grace 아키텍처는 이러한 과제를 직접적으로 해결해줍니다.
NVIDIA Grace Blackwell NVL72는 36개의 NVIDIA Grace CPU와 72개의 NVIDIA Blackwell GPU를 통합한 랙 스케일 시스템입니다. 주요 클라우드 제공업체들은 복잡한 사고와 물리 AI 작업을 포함한 AI 훈련, 추론을 가속화하기 위해 이를 채택하고 있죠.
현재 NVIDIA Grace 아키텍처는 듀얼 CPU Grace 슈퍼칩과 새로운 싱글 CPU Grace CPU C1의 두 가지 주요 사양으로 제공되는데요, C1 제품은 와트당 성능을 극대화하는 것이 가장 중요한 엣지, 통신, 스토리지, 클라우드 배포에서 상당한 주목을 받고 있습니다.
Grace CPU C1은 기존 CPU에 비해 2배 향상된 에너지 효율성을 자랑합니다. 분산되고 전력이 제한적인 환경에서 매우 중요한 이점이죠.
폭스콘(Foxconn), 자빌(Jabil), 래너(Lanner), 미텍 컴퓨팅(MiTAC Computing), 슈퍼마이크로(Supermicro), 퀀타 클라우드 테크놀로지(Quanta Cloud Technology) 등 선도적인 제조업체들은 Grace CPU C1의 기능을 활용해 시스템을 개발하며, 이러한 흐름을 이끌고 있습니다.
통신 분야에서 NVIDIA Compact Aerial RAN 컴퓨터는 기지국 배포에 적합한 전력, 성능, 크기 요구 사항을 충족하는 분산형 AI-RAN을 위한 플랫폼으로 주목받고 있는데요. NVIDIA Compact Aerial RAN 컴퓨터는 Grace CPU C1과 NVIDIA L4 GPU, NVIDIA ConnectX-7 SmartNIC를 결합한 제품입니다.
NVIDIA Grace는 스토리지 솔루션에서도 활용되고 있는데요. 웨카(WEKA)와 슈퍼마이크로는 자사의 고성능, 메모리 대역폭을 위해 NVIDIA Grace를 배포하고 있습니다.
실질적인 영향
NVIDIA Grace의 이점은 단순 이론에 그치지 않고, 아래와 같은 실제 사례를 통해 구체적으로 확인할 수 있습니다.
- 엑손모빌(ExxonMobil)은 탄성파 영상화에 Grace Hopper를 사용합니다. 이를 통해 방대한 데이터 세트를 분석하고 지표면 특징과 지질 지형에 대한 인사이트를 얻고 있습니다.
- 메타(Meta)는 광고 게재와 필터링에 Grace Hopper를 배포하고 있는데요. 고대역폭 NVIDIA NVLink-C2C 인터커넥트를 CPU와 GPU 간에 사용하고 방대한 양의 추천 목록을 관리하고 있습니다.
- 텍사스 첨단 컴퓨팅센터(Texas Advanced Computing Center)와 대만 국립 고성능 컴퓨팅센터(National Center for High-Performance Computing) 등의 고성능 컴퓨팅 센터에서는 AI, 시뮬레이션을 위한 시스템에서 Grace CPU를 사용해 연구를 고도화하고 있습니다.
5월 21일부터 22일까지 COMPUTEX에서 열리는 NVIDIA GTC Taipei 2025 세션을 시청하고 최신 AI 발전에 대해 자세히 알아보세요.