마이크로소프트와 오픈AI에 ‘NVIDIA Blackwell’ 시스템 최초 공급

마이크로소프트 애저(Microsoft Azure)는 GB200 기반 서버로 최첨단 AI 인프라 구축 가속화에 나섭니다. 또한 오픈AI(OpenAI)와 함께한 Blackwell DGX B200 플랫폼 모습도 공개했습니다
by NVIDIA Korea

NVIDIA는 마이크로소프트(Microsoft)와 오픈AI(OpenAI)에 Blackwell 시스템을 최초로 공급합니다.

마이크로소프트 애저(Microsoft Azure)가 GB200 기반 AI 서버를 갖춘 NVIDIA Blackwell 시스템을 구동하는 최초의 클라우드 솔루션 제공업체가 됐습니다. 마이크로소프트 애저는 인피니밴드(Infiniband) 네트워킹과 혁신적인 폐쇄 루프 액체 냉각을 활용해 세계에서 가장 진보된 AI 모델을 구동할 수 있도록 모든 단계에서 최적화하고 있죠.

마이크로소프트 애저가 공식 X계정에서 공개한 NVIDIA GB200을 탑재한 서버

이 같은 소식에 마이크로소프트 CEO인 사티아 나델라(Satya Nadella)는 공식 소셜미디어 X 계정에서 “우리는 NVIDIA와의 오랜 파트너십과 심층적인 혁신으로 업계를 선도하고 있으며, 가장 정교한 AI 워크로드를 지원하고 있다”고 말했습니다.

GB200 Grace Blackwell 슈퍼칩은 NVIDIA GB200 NVL72의 핵심 구성 요소입니다. GB200 NVL72는 72개의 Blackwell GPU와 36개의 Grace CPU를 연결하는 멀티 노드, 수냉식, 랙 스케일 솔루션이죠. 이는 거대 언어 모델(LLM) 워크로드에 최대 30배 빠른 추론을 제공하며, 수조 개의 파라미터 모델을 실시간으로 실행할 수 있는 기능을 제공합니다.

또한, NVIDIA는 오픈AI에 Blackwell DGX B200의 첫 엔지니어링 샘플 중 하나를 제공했습니다. 오픈AI는 최신 DGX B200 플랫폼을 통한 AI 훈련에 NVIDIA Blackwell B200 데이터센터 GPU를 활용할 예정입니다. NVIDIA는 공식 X 계정읕 통해 오픈AI에 전달한 DGX B200의 모습을 공개했습니다.

NVIDIA가 오픈AI에 제공한 DGX B200

NVIDIA DGX B200 시스템은 AI 모델 훈련, 미세 조정, 추론을 위한 통합 AI 슈퍼컴퓨팅 플랫폼입니다. 5세대 NVIDIA NVLink로 상호 연결된 8개의 Blackwell GPU를 탑재해 이전 세대인 DGX H100 대비 3배의 훈련 성능과 15배의 추론 성능을 제공하죠. 이를 통해 LLM, 추천 시스템, 챗봇 등 다양한 워크로드를 처리할 수 있어 기업의 AI 혁신 가속화 효과적으로 지원합니다.