컴퓨팅의 새로운 시대를 여는 Blackwell 플랫폼의 출시를 알려드립니다! 이 플랫폼은 모든 기업이 이전 세대 대비 최대 25배 적은 비용과 에너지로 조 단위의 거대 언어 모델(LLM)에서 실시간 생성형 AI를 구축하고 실행할 수 있도록 지원합니다.
데이터 처리, 엔지니어링 시뮬레이션, 전자 설계 자동화, 컴퓨터 지원 신약 설계, 양자 컴퓨팅, 생성형 AI 등은 NVIDIA의 새로운 산업 기회로 떠오르고 있는데요. Blackwell GPU 아키텍처는 이러한 분야에서 획기적인 발전을 이룰 수 있는 가속 컴퓨팅을 위한 6가지 혁신적인 기술을 갖추고 있습니다.
NVIDIA 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 “NVIDIA는 지난 30년 동안 딥 러닝, AI와 같은 혁신을 실현하기 위해 가속 컴퓨팅을 추구해 왔습니다. 생성형 AI는 우리 시대를 정의하는 기술입니다. Blackwell GPU는 이 새로운 산업 혁명을 구동하는 엔진입니다. 세계에서 가장 역동적인 기업들과 협력해 모든 산업에서 AI의 가능성을 실현할 것”이라고 말했습니다.
아마존(Amazon), 델 테크놀로지스(Dell Technologies), 구글(Google), 메타(Meta), 마이크로소프트(Microsoft), 오픈AI(OpenAI), 오라클(Oracle), 테슬라(Tesla) 등 많은 기업이 Blackwell을 도입할 계획입니다.
알파벳(Alphabet)과 구글의 CEO인 순다르 피차이(Sundar Pichai)는 “검색과 지메일(Gmail) 같은 서비스를 수십억 명의 사용자로 확장하면서 컴퓨팅 인프라 관리에 대해 많은 것을 배웠습니다. 우리는 AI 플랫폼 전환기에 접어들면서 자체 제품과 서비스, 그리고 클라우드 고객을 위한 인프라에 지속적으로 집중적으로 투자하고 있습니다. NVIDIA와 오랜 파트너십을 맺게 된 것을 행운으로 생각하며, Blackwell GPU의 획기적인 기능을 클라우드 고객과 구글 딥마인드(DeepMind)를 비롯한 구글의 모든 팀에 제공해 미래를 위한 발견을 앞당길 수 있기를 기대합니다”고 말했습니다.
아마존의 CEO인 앤디 재시(Andy Jassy)는 “NVIDIA와의 긴밀한 협력은 아마존웹서비스(AWS)에서 세계 최초의 GPU 클라우드 인스턴스를 출시했던 13년 전으로 거슬러 올라갑니다. 오늘날 우리는 모든 클라우드에서 사용할 수 가장 광범위한 GPU 솔루션을 제공해 세계에서 가장 기술적으로 진보된 가속 워크로드를 지원합니다. 이것이 바로 새로운 NVIDIA Blackwell GPU가 AWS에서 잘 실행되는 이유입니다. 또한, NVIDIA가 자체 AI 연구 개발을 위해 NVIDIA의 차세대 Grace Blackwell Superchip과 AWS 나이트로 시스템(Nitro System)의 고급 가상화, 초고속 엘라스틱 패브릭 어댑터(ultra-fast Elastic Fabric Adapter) 네트워킹을 결합한 프로젝트 세이바(Ceiba)를 공동 개발하기 위해 AWS를 선택한 이유이기도 합니다. AWS와 NVIDIA 엔지니어 간의 이러한 공동 노력을 통해 우리는 AWS를 누구나 클라우드에서 NVIDIA GPU를 실행할 수 있는 최고의 장소로 만들기 위해 함께 혁신을 지속하고 있습니다”고 말했습니다.
델 테크놀로지스의 창립자 겸 CEO인 마이클 델(Michael Dell)은 “생성형 AI는 더 스마트하고 안정적이며 효율적인 시스템을 만드는 데 매우 중요합니다. 델 테크놀로지스와 NVIDIA는 기술의 미래를 만들기 위해 협력하고 있습니다. Blackwell의 출시와 함께 우리는 고객에게 차세대 가속화된 제품과 서비스를 지속적으로 제공해 산업 전반의 혁신을 주도하는 데 필요한 도구를 제공할 것입니다”고 언급했습니다.
구글 딥마인드 공동창업자 겸 CEO인 데미스 허사비스(Demis Hassabis)는 “AI의 혁신적 잠재력은 놀랍고, 세계에서 가장 중요한 과학적 문제들을 해결하는 데 도움이 될 것입니다. Blackwell의 획기적인 기술력은 세계에서 가장 뛰어난 두뇌들이 새로운 과학적 발견을 도표화하는 데 필요한 중요한 컴퓨팅을 제공할 것”이라고 말했습니다.
메타의 창립자 겸 CEO인 마크 저커버그(Mark Zuckerberg)는 “AI는 이미 거대 언어 모델부터 콘텐츠 추천, 광고, 안전 시스템에 이르기까지 모든 것을 지원하고 있으며, 앞으로 그 중요성은 더욱 커질 것입니다. NVIDIA의 Blackwell을 사용해 오픈 소스 라마(Llama) 모델을 훈련하고, 차세대 메타 AI와 소비자 제품을 구축할 수 있기를 기대합니다”고 얘기했습니다.
마이크로소프트 회장 겸 CEO인 사티아 나델라(Satya Nadella)는 “우리는 고객에게 AI 워크로드를 구동할 수 있는 최첨단 인프라를 제공하기 위해 최선을 다하고 있습니다. 전 세계 데이터센터에 GB200 Grace Blackwell 프로세서를 도입함으로써, 우리는 클라우드에 NVIDIA GPU를 최적화해온 오랜 역사를 바탕으로 모든 조직에 AI의 약속을 실현하고 있습니다”고 말했습니다.
오픈AI의 CEO인 샘 알트만(Sam Altman)은 “Blackwell은 엄청난 성능 도약을 제공하며, 최첨단 모델을 제공하는 우리의 능력을 가속화할 것입니다. AI 컴퓨팅을 향상시키기 위해 NVIDIA와 계속 협력하게 되어 기대가 매우 큽니다”고 언급했습니다.
오라클 회장 겸 CTO인 래리 엘리슨(Larry Ellison)은 “오라클과 NVIDIA의 긴밀한 협력을 통해 AI, 머신 러닝, 데이터 분석 분야에서 질적, 양적 혁신을 이룰 수 있을 것입니다. 고객이 보다 실행 가능한 인사이트를 발견하기 위해서는 가속 컴퓨팅과 생성형 AI를 위해 특별히 설계된 Blackwell과 같은 더욱 강력한 엔진이 필요합니다”고 얘기했습니다.
테슬라와 xAI의 CEO인 일론 머스크(Elon Musk)는 “현재 AI를 위한 NVIDIA 하드웨어보다 더 좋은 것은 없습니다”고 말했습니다.
Blackwell은 게임 이론과 통계학을 전공한 수학자이자 흑인으로는 최초로 미국국립과학원(National Academy of Sciences)에 입회한 데이비드 헤롤드 블랙웰(David Harold Blackwell)을 기리기 위해 붙여진 이름입니다. 이 새로운 아키텍처는 2년 전 출시된 NVIDIA Hopper 아키텍처의 후속 기술입니다.
가속 컴퓨팅과 생성형 AI를 촉진하는 Blackwell의 혁신
최대 10조 개의 파라미터로 확장되는 모델에 대한 AI 훈련과 실시간 LLM 추론을 지원하는 Blackwell의 6가지 혁신적인 기술은 다음과 같습니다.
- 세계에서 가장 강력한 칩: Blackwell 아키텍처 GPU는 2,080억 개의 트랜지스터를 탑재했습니다. GPU 다이가 초당 10테라바이트(TB)의 칩 투 칩(chip-to-chip) 링크로 연결된 단일 통합 GPU로 맞춤형 2레티클 제한 4NP TSMC 공정을 통해 제조되죠.
- 2세대 트랜스포머 엔진: Blackwell은 새로운 마이크로 텐서 확장 지원과 NVIDIA TensorRT-LLM, NeMo Megatron 프레임워크에 통합된 NVIDIA의 고급 동적 범위 관리 알고리즘에 기반합니다. 이를 통해 새로운 4비트 부동 소수점 AI 추론 기능으로 컴퓨팅과 모델 크기를 두 배로 늘릴 예정입니다.
- 5세대 NVLink: 수조 개의 파라미터와 여러 전문 AI 모델 조합의 성능을 가속화하기 위해 최신 버전의 NVIDIA NVLink는 GPU당 획기적인 초당8테라바이트의 양방향 처리량을 제공합니다. 이는 오늘날 가장 복잡한 LLM을 위한 최대 576개의 GPU 간의 원활한 고속 통신을 보장합니다.
- RAS 엔진: Blackwell 기반 GPU에는 안정성, 가용성, 서비스 가능성을 위한 전용 엔진이 포함됩니다. 또한 Blackwell 아키텍처는 칩 수준에서 AI 기반 예방적 유지보수 기능을 활용해 진단을 실행하고 안정성 문제를 예측하는 기능을 추가합니다. 이를 통해 시스템 가동 시간을 극대화하고 복원력을 개선해 대규모 AI 배포를 몇 주 또는 몇 달 동안 중단 없이 한 번에 실행하고 운영 비용을 절감할 수 있습니다.
- 보안 AI: 고급 기밀 컴퓨팅 기능은 의료와 금융 서비스와 같이 개인정보 보호에 민감한 산업에 필수적인 새로운 기본 인터페이스 암호화 프로토콜을 지원합니다. 이는 성능 저하 없이 AI 모델과 고객 데이터를 보호합니다.
- 압축해제 엔진: 최신 형식을 지원하는 전용 압축해제 엔진은 데이터베이스 쿼리를 가속화해 데이터 분석과 데이터 사이언스에서 최고의 성능을 제공합니다. 앞으로 기업들이 매년 수백억 달러를 지출할 것으로 예상되는 데이터 처리는 GPU를 통해 점점 더 가속화될 것입니다.
대규모 슈퍼칩
NVIDIA GB200 Grace Blackwell Superchip은 초당 900기가바이트(GB) 초저전력 칩 투 칩 링크를 통해 두 개의 NVIDIA B200 Tensor Core GPU를 NVIDIA Grace CPU에 연결합니다.
NVIDIA Quantum-X800 InfiniBand와 Spectrum-X800 Ethernet 플랫폼은 Blackwell과 함께 발표됐습니다. 이들은 최대 800Gb/s의 속도로 고급 네트워킹을 제공하며 GB200 기반 시스템과 함께 연결하면 최고의 AI 성능을 발휘할 수 있습니다.
GB200은 가장 컴퓨팅 집약적인 워크로드를 위한 멀티 노드, 수냉식 랙 스케일 시스템인 NVIDIA GB200 NVL72의 핵심 구성요소입니다. 이 시스템은 72개의 Blackwell GPU와 5세대 NVLink로 상호 연결된 36개의 Grace Blackwell Superchip과 36개의 Grace CPU가 결합돼 있죠. 또한 GB200 NVL72에는 NVIDIA BlueField-3 데이터 처리 장치가 포함됩니다. 이는 하이퍼스케일 AI 클라우드에서 클라우드 네트워크 가속화, 컴포저블 스토리지, 제로 트러스트 보안, GPU 컴퓨팅 탄력성을 지원하죠. GB200 NVL72는 LLM 추론 워크로드에서 NVIDIA H100 Tensor Core GPU 대비 최대 30배의 성능 향상을 제공하며, 비용과 에너지 소비를 최대 25배까지 줄여줍니다.
이 플랫폼은 1.4 엑사플롭의 AI 성능과 30테라바이트의 고속 메모리를 갖춘 단일 GPU 역할을 하며 최신 DGX SuperPOD의 빌딩 블록입니다.
NVIDIA는 NVLink를 통해 8개의 B200 GPU를 연결하는 서버 보드인 HGX B200을 제공합니다. 이는 세계에서 가장 강력한 x86 기반 생성형 AI 플랫폼을 지원하기 위함이죠. HGX B200은 NVIDIA Quantum-2 InfiniBand와 Spectrum-X Ethernet 네트워킹 플랫폼을 통해 최대 초당 400기가바이트의 네트워킹 속도를 지원합니다.
Blackwell 파트너들의 글로벌 네트워크
Blackwell 기반 제품은 올해 말부터 파트너사를 통해 구매할 수 있습니다.
AWS, 구글 클라우드(Google Cloud), 마이크로소프트 애저(Microsoft Azure), 오라클 클라우드 인프라(Oracle Cloud Infrastructure)는 Blackwell 기반 인스턴스를 제공하는 최초의 클라우드 서비스 제공업체가 될 것이다. NVIDIA 클라우드 파트너 프로그램 회원사인 어플라이드 디지털(Applied Digital), 코어위브(CoreWeave), 크루소(Crusoe), IBM 클라우드(IBM Cloud), 람다(Lambda) 역시 Blackwell 기반 인스턴스를 제공할 예정이다. 또한, 소버린 AI(Sovereign AI) 클라우드는 인도삿 오레두 허치슨(Indosat Ooredoo Hutchinson, IOH), 네비우스(Nebius), 넥스젠 클라우드(Nexgen Cloud), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 미국, 영국, 호주 정부 클라우드, 스케일웨이(Scaleway), 싱텔(Singtel), 노던 데이터 그룹(Northern Data Group)의 타이가 클라우드(Taiga Cloud), 요타 데이터 서비스(Yotta Data Services)의 샤크티 클라우드(Shakti Cloud), YTL 파워 인터내셔널(YTL Power International) 등에서 Blackwell 기반 클라우드 서비스와 인프라를 제공할 예정입니다.
GB200은 선도적인 클라우드 서비스 제공업체들과 공동 엔지니어링한 AI 플랫폼인 NVIDIA DGX Cloud에서도 사용할 수 있습니다. NVIDIA DGX Cloud는 기업 개발자가 고급 생성형 AI 모델을 구축하고 배포하는 데 필요한 인프라와 소프트웨어에 대한 전용 액세스를 제공하고 있습니다. AWS, 구글 클라우드, 오라클 클라우드 인프라는 올해 말 새로운 NVIDIA Grace Blackwell 기반 인스턴스를 호스팅할 계획입니다.
시스코(Cisco), 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise), 레노버(Lenovo), 슈퍼마이크로(Supermicro) 뿐만 아니라, 에이브레스(Aivres), 애즈락랙(ASRock Rack), 에이수스(ASUS), 에비던(Eviden), 폭스콘(Foxconn), 기가바이트(GIGABYTE), 인벤텍(Inventec), 페가트론(Pegatron), QCT, 위스트론(Wistron), 위윈(Wiwynn), ZT 시스템(ZT Systems)도 다양한 Blackwell 제품 기반 서버를 공급할 계획입니다.
아울러 앤시스(Ansys), 케이던스(Cadence), 시놉시스(Synopsys)와 같은 엔지니어링 시뮬레이션 분야의 글로벌 선도업체가 Blackwell 기반 프로세서를 사용할 예정입니다. 이를 통해 전기, 기계, 제조 시스템과 부품을 설계하고 시뮬레이션하는 자사 소프트웨어를 가속화할 예정입니다. 이들 기업의 고객은 생성형 AI와 가속 컴퓨팅을 사용해 더 낮은 비용과 더 높은 에너지 효율로 제품을 더 빠르게 출시할 수 있습니다.
NVIDIA의 소프트웨어 지원
Blackwell 제품 포트폴리오는 생산 등급 AI를 위한 엔드 투 엔드 운영 체제인 NVIDIA AI Enterprise에서 지원됩니다. NVIDIA AI Enterprise에는 이번에 발표된 NVIDIA NIM 추론 마이크로서비스와 기업이 NVIDIA 가속 클라우드, 데이터센터, 워크스테이션에 배포할 수 있는 AI 프레임워크, 라이브러리, 툴이 포함됩니다.
여기에서 NVIDIA Blackwell 플랫폼에 대해 더 자세히 알아볼 수 있습니다. 3월 21일까지 진행되는 GTC에 참여해 NVIDIA와 업계 리더들로부터 관련 정보를 확인해보세요.