차세대 AI 시대를 위한 도약, NVIDIA Rubin 공개

신규 칩 6종인 NVIDIA Vera CPU, Rubin GPU, NVLink 6 스위치, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 이더넷 스위치 전반에 걸쳐 고도의 공동 설계로 AI 도입을 가속합니다
by NVIDIA Korea

차세대 AI를 위한 NVIDIA Rubin 플랫폼을 출시합니다. Rubin 플랫폼은 첨단 AI 슈퍼컴퓨터를 구현하도록 설계된 신규 칩 6종으로 구성되며, 세계 최대 규모의 최첨단 AI 시스템을 구축, 배포하고 보안을 강화하는 새로운 기준을 제시합니다. 그리고 이를 최저 비용으로 구현해 AI의 대중화를 가속하죠.

Rubin 플랫폼은 6개 칩 전반에 걸쳐 고도의 공동 설계를 적용해 훈련 시간과 추론 토큰 비용을 절감합니다. 6개 칩에는 NVIDIA Vera CPU, NVIDIA Rubin GPU, NVIDIA NVLink™ 6 스위치, NVIDIA ConnectX®-9 SuperNIC, NVIDIA BlueField®-4 DPU, NVIDIA Spectrum™-6 이더넷 스위치가 포함됩니다.

NVIDIA 창립자 겸 CEO 젠슨 황(Jensen Huang)은 “AI 훈련과 추론을 위한 컴퓨팅 수요가 어느 때보다도 급증하고 있는 가운데, Rubin의 등장은 매우 시의적절합니다. 저희는 매년 차세대 AI 슈퍼컴퓨터를 선보이고 있습니다. 이러한 가운데, 6개 칩에 고도의 공동 설계를 적용한 Rubin은 AI의 새로운 지평을 향해 비약적인 발전을 이룰 것”이라고 말했습니다.

Rubin 플랫폼은 우주에 대한 인류의 이해를 변화시킨 선구적인 미국 천문학자 Vera Florence Cooper Rubin의 이름을 따서 지었는데요. 이 플랫폼은 NVIDIA Vera Rubin NVL72 랙 스케일 솔루션과 NVIDIA HGX Rubin NVL8 시스템으로 구성됩니다.

Rubin 플랫폼은 최신 NVIDIA NVLink 인터커넥트 기술, 트랜스포머 엔진, 컨피덴셜 컴퓨팅, RAS 엔진, NVIDIA Vera CPU를 포함한 5개의 혁신 기술을 도입합니다. 이는 에이전틱 AI, 고급 추론, 대규모 전문가 혼합 방식(mixture-of-experts, MoE) 모델 추론을 가속화해 토큰당 비용을 NVIDIA Blackwell 플랫폼 대비 10배 절감시킨다. 또한 NVIDIA Rubin 플랫폼은 MoE 모델 훈련에 필요한 GPU 개수를 이전 대비 4배 절감해 AI 도입을 가속할 전망입니다.

광범위한 생태계 지원

Rubin 플랫폼은 전 세계의 선도적인 AI 연구소, 클라우드 서비스 제공업체, 컴퓨터 제조업체, 스타트업으로부터 광범위하게 채택될 것으로 예상되는데요. 여기에는 아마존 웹 서비스(Amazon Web Services, AWS), 앤트로픽(Anthropic), 블랙 포레스트 랩스(Black Forest Labs), 시스코(Cisco), 코히어(Cohere), 코어위브(CoreWeave), 커서(Cursor), 델 테크놀로지스(Dell Technologies), 구글(Google), 하비(Harvey), 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise, HPE), 람다(Lambda), 레노버(Lenovo), 메타(Meta), 마이크로소프트(Microsoft), 미스트랄 AI(Mistral AI), 네비우스(Nebius), 엔스케일(Nscale), 오픈AI(OpenAI), 오픈에비던스(OpenEvidence), 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI), 퍼플렉시티(Perplexity), 런웨이(Runway), 슈퍼마이크로(Supermicro), 싱킹 머신즈 랩(Thinking Machines Lab), xAI 등이 있습니다.

오픈AI CEO Sam Altman은 “인텔리전스는 컴퓨팅 능력에 비례해 확장됩니다. 더 많은 컴퓨팅 능력을 투입할수록 모델은 더욱 강력해지고, 더 어려운 난제를 해결하며, 인류에게 더 큰 영향을 미치죠. NVIDIA Rubin 플랫폼은 이러한 발전을 지속적으로 확장해 첨단 인텔리전스의 혜택이 모두에게 돌아갈 수 있도록 돕습니다”고 말했습니다.

앤트로픽 공동 창립자 겸 CEO Dario Amodei는 “NVIDIA Rubin 플랫폼의 효율성 증대는 메모리 향상과 추론 능력 개선, 보다 신뢰할 수 있는 결과물을 만드는 인프라 발전을 상징합니다. NVIDIA와의 협력은 앤트로픽의 안전 연구와 최첨단 모델에 큰 힘이 됩니다”고 이야기했습니다.

메타 창립자 겸 CEO Mark Zuckerberg는 “NVIDIA Rubin 플랫폼은 전 세계 수십억 명에게 최첨단 모델을 배포하는 데 필요한 성능과 효율성의 획기적인 향상을 제공할 것으로 기대됩니다”고 말했습니다.

xAI 창립자 겸 CEO Elon Musk는 “NVIDIA Rubin은 AI를 위한 로켓 엔진이 될 것입니다. Rubin은 최첨단 모델의 대규모 훈련과 배포에 알맞은 인프라죠. 이는 NVIDIA가 확고한 기준이라는 것을 전 세계에 다시 한번 일깨워줄 것”이라고 말했습니다.

마이크로소프트 회장 겸 CEO Satya Nadella는 “마이크로소프트는 세계에서 가장 강력한 AI 슈퍼팩토리를 구축하고 있습니다. 이 슈퍼팩토리에서는 모든 종류의 워크로드를 어디에서나 최고의 성능과 효율성으로 처리하게 되는데요. 여기에 NVIDIA Vera Rubin GPU를 더해, 저희는 개발자와 조직이 완전히 새로운 방식으로 창조하고, 추론하며, 확장할 수 있도록 지원할 것”이라고 소감을 밝혔습니다.

코어위브 공동 창립자 겸 CEO Mike Intrator는 “코어위브는 진화하는 워크로드에 맞춰 최적의 기술을 적용한 목적형 AI 플랫폼의 압도적인 성능을 통해, 선도 기업들의 혁신 가속을 지원하기 위해 설립됐습니다. NVIDIA Rubin 플랫폼은 추론, 에이전틱, 대규모 추론 워크로드를 위한 중요한 진전을 의미하며, 이를 코어위브의 플랫폼에 추가하게 돼 기쁩니다. 코어위브는 NVIDIA와의 긴밀한 협력을 통해 Mission Control을 표준 운영 체제로 삼아 새로운 기능을 신속하게 통합하고, 이를 대규모 프로덕션 환경에서 안정적으로 운용할 수 있습니다”고 말했습니다.

AWS CEO Matt Garman은 “AWS와 NVIDIA는 15년 이상 클라우드 AI 혁신을 함께 이끌어 왔습니다. AWS에서 NVIDIA Rubin 플랫폼을 지원하는 것은 고객에게 독보적인 선택권과 유연성을 선사하는 최첨단 AI 인프라를 제공하겠다는 지속적인 약속을 보여주죠. NVIDIA의 발전된 AI 기술과 AWS의 검증된 확장성, 보안, 포괄적인 AI 서비스를 결합함으로써, 고객들은 가장 복잡한 AI 애플리케이션을 더 빠르고 비용 효율적으로 구축, 훈련, 배포할 수 있습니다. 이로써 규모에 관계없이 실험 단계부터 실제 상용화에 이르는 AI 개발 과정이 가속화될 것”이라고 설명합니다.

구글, 알파벳(Alphabet) CEO Sundar Pichai는 “NVIDIA와의 깊고 오랜 관계를 자랑스럽게 생각합니다. NVIDIA GPU에 대한 상당한 고객 수요를 충족하기 위해, 구글 클라우드(Google Cloud)에서 NVIDIA 하드웨어에 최적의 환경을 제공하는 데 집중하고 있는데요. 앞으로도 Rubin 플랫폼의 놀라운 역량을 고객에게 제공하며 협력을 지속해 나갈 것입니다. 이를 통해 AI의 한계를 확장하는 데 필요한 규모와 성능을 제공할 것”이라고 말했습니다.

오라클 CEO Clay Magouyrk는 “OCI는 최고 성능을 위해 구축된 하이퍼스케일 클라우드입니다. NVIDIA와 함께 고객들이 AI로 구축하고 확장할 수 있는 역량의 한계를 더욱 넓히고 있죠. NVIDIA Vera Rubin 아키텍처로 구동되는 기가스케일 AI 팩토리를 통해, OCI는 고객들이 모델 훈련, 추론, 실제 AI 영향력 측면에서 한계를 뛰어넘는 데 필요한 인프라 기반을 제공하고 있습니다”고 말했습니다.

델 테크놀로지스 회장 겸 CEO Michael Dell은 “NVIDIA Rubin 플랫폼은 AI 인프라 분야에서 중대한 도약을 상징합니다. NVIDIA와 함께 Rubin을 델 AI 팩토리(Dell AI Factory)에 통합함으로써, 저희는 방대한 양의 토큰과 다단계 추론을 처리할 수 있는 인프라를 구축하고 있죠. 동시에 기업과 네오클라우드(neocloud)가 대규모 AI를 배포하는 데 필요한 성능과 복원력을 제공하고 있습니다”고 설명했습니다.

HPE 사장 겸 CEO Antonio Neri는 “AI는 단순 워크로드를 넘어 IT의 근간을 재편하고 있습니다. 이에 네트워크부터 컴퓨팅에 이르기까지 인프라 전반을 새롭게 구상할 것을 요구하고 있는데요. 저희는 NVIDIA Vera Rubin 플랫폼을 통해 안전한 차세대 AI 네이티브 인프라를 구축하고 있습니다. 이를 통해 데이터를 인텔리전스로 전환해 기업이 진정한 AI 팩토리로 거듭나도록 지원하고 있죠”라고 말했습니다.

레노버 회장 겸 CEO Yuanqing Yang은 “레노버는 차세대 NVIDIA Rubin 플랫폼을 채택해 자사 넵튠(Neptune) 수랭식 솔루션과 전 세계에 걸친 제조 효율성, 서비스 역량을 총동원하고 있습니다. 이를 통해 기업이 인사이트와 혁신을 위한 지능적, 가속 엔진 역할을 하는 AI 팩토리를 구축할 수 있도록 돕죠. 레노버는 NVIDIA와 함께 모든 조직에서 효율적이고 안전한 AI가 기본이 되는 미래를 만들어가고 있습니다”라고 이야기합니다.

인텔리전스 확장을 위한 설계

에이전틱 AI, 추론 모델, 최첨단 비디오 생성 워크로드는 컴퓨팅의 한계를 재정의하고 있습니다. 다단계 문제 해결을 위해서는 모델이 긴 시퀀스의 토큰을 처리하고 추론하며 그에 따라 행동할 수 있어야 하죠. 이러한 까다로운 AI 워크로드의 수요를 충족시키도록 설계된 Rubin 플랫폼에는 다음과 같은 5가지 혁신 기술이 포함됩니다.

  • 6세대 NVIDIA NVLink: 오늘날 방대한 MoE 모델에 필수적인 빠르고 원활한 GPU 간 통신을 제공합니다. 각 GPU는6 TB/s의 대역폭을 지원하는데, Vera Rubin NVL72 랙은 전체 인터넷보다 큰 260 TB/s의 대역폭을 제공합니다. NVLink 6 스위치는 집합 연산을 위한 내장형 인-네트워크 컴퓨팅(in-network compute) 기능을 탑재했으며, 서비스 용이성과 탄력성을 향상시키는 신규 기능을 갖췄죠. 대규모 AI 훈련과 추론 작업을 더 빠르고 효율적으로 실행하도록 지원합니다.
  • NVIDIA Vera CPU: 에이전틱 추론을 위해 설계된 NVIDIA Vera는 대규모 AI 팩토리를 위한 가장 전력 효율적인 CPU입니다. NVIDIA Vera CPU는 NVIDIA 맞춤형 올림푸스(Olympus) 코어 88개와 완벽한2 호환성, 초고속 NVLink-C2C 연결성을 갖췄습니다. Vera는 뛰어난 성능, 대역폭, 업계 최고의 효율성을 제공해 다양한 최신 데이터센터 워크로드를 지원합니다.
  • NVIDIA Rubin GPU: 하드웨어 가속 적응형 압축(adaptive compression) 기술을 지원하는 3세대 트랜스포머 엔진을 탑재해 AI 추론을 위한 50 페타플롭의 NVFP4 컴퓨팅을 제공합니다.
  • 3세대 NVIDIA 컨피덴셜 컴퓨팅: Vera Rubin NVL72는 NVIDIA 컨피덴셜 컴퓨팅을 제공하는 최초의 랙 스케일 플랫폼입니다. CPU, GPU, NV링크 도메인 전반에 걸쳐 데이터 보안을 유지함과 동시에, 세계 최대 규모의 독점 모델, 훈련, 추론 워크로드를 철저히 보호하죠.
  • 2세대 RAS 엔진: GPU, CPU, NVLink를 아우르는 Rubin 플랫폼은 실시간 상태 점검, 장애 대응, 선제적 유지보수 기능을 통해 시스템 생산성을 극대화합니다. 랙의 케이블 없는 모듈식 트레이 설계는 Blackwell 대비 최대 18배 빠른 조립과 서비스 속도를 구현합니다.

AI 네이티브 스토리지와 안전한 소프트웨어 정의 인프라

NVIDIA Rubin은 기가스케일 규모의 추론 컨텍스트 확장을 위해 설계된 새로운 종류의 AI 네이티브 스토리지 인프라인 ‘NVIDIA 추론 컨텍스트 메모리 스토리지 플랫폼(Inference Context Memory Storage Platform)’을 도입했습니다.

이 플랫폼은 NVIDIA BlueField-4로 구동되며, AI 인프라 전반에 걸쳐 키-밸류(key-value, KV) 캐시 데이터를 효율적으로 공유하고 재사용하도록 지원합니다. 이는 반응성과 처리량을 크게 향상시키고, 동시에 에이전틱 AI의 예측 가능하며 전력 효율적인 확장을 가능하게 하죠.

점차 많은 AI 팩토리가 베어 메탈(bare-metal), 멀티 테넌트(multi-tenant) 배포 모델을 채택함에 따라 강력한 인프라 제어 유지와 격리가 필수적인 요소로 부각되고 있는데요.

BlueField-4는 ‘고급 보안 신뢰 자원 아키텍처(Advanced Secure Trusted Resource Architecture, ASTRA)’를 도입했습니다. 이는 AI 인프라 빌더가 성능 저하 없이 대규모 AI 환경을 안전하게 프로비저닝, 격리, 운영할 수 있도록 신뢰 가능한 단일 제어점(control point)을 제공하는 시스템 수준의 신뢰 아키텍처죠.

AI 애플리케이션이 멀티턴(multi-turn) 에이전틱 추론으로 발전하면서, AI 네이티브 조직은 훨씬 더 많은 양의 추론 컨텍스트를 다양한 사용자, 세션, 서비스 간에 걸쳐 효율적으로 관리하고 공유해야 합니다.

다양한 워크로드에 적용 가능한 다양한 구성

NVIDIA Vera Rubin NVL72는 NVIDIA Rubin GPU 72개, NVIDIA Vera CPU 36개, NVIDIA NVLink 6, NVIDIA ConnectX-9 SuperNIC, NVIDIA BlueField-4 DPU를 결합해 안전한 통합 시스템을 제공합니다.

또한 HGX Rubin NVL8 플랫폼도 제공할 예정입니다. 이는 Rubin GPU 8개를 NVLink로 연결해 x86 기반 생성형 AI 플랫폼을 지원하는 서버 보드인데요. HGX Rubin NVL8 플랫폼은 AI와 고성능 컴퓨팅 워크로드를 위한 훈련, 추론, 과학 컴퓨팅 워크로드를 가속화할 것입니다.

NVIDIA DGX SuperPOD™는 Rubin 기반 시스템을 대규모로 배포하기 위한 레퍼런스 역할을 수행합니다. NVIDIA DGX Vera Rubin NVL72 또는 DGX Rubin NVL8 시스템을 NVIDIA BlueField-4 DPU, NVIDIA ConnectX-9 SuperNIC, NVIDIA InfiniBand 네트워킹, NVIDIA Mission Control™ 소프트웨어와 통합합니다.

차세대 이더넷 네트워킹

고급 이더넷 네트워킹과 스토리지는 AI 인프라의 구성 요소로, 데이터센터의 속도를 최고로 유지하고 성능과 효율성을 개선하며 비용을 절감하는 데 핵심적입니다.

NVIDIA Spectrum-6 이더넷은 AI 네트워킹을 위한 차세대 이더넷으로, 높은 효율성과 탁월한 복원력을 기반으로 Rubin 기반 AI 팩토리의 확장을 위해 설계됐습니다. 200G 서데스(SerDes) 통신 회로, 공동 패키징 옵틱(co-packaged optics), AI 최적화 패브릭 기술을 통해 구현되죠.

Spectrum-6 아키텍처를 기반으로 구축된 Spectrum-X 이더넷 포토닉스 CPO(Co-Packaged Optical)스위치 시스템은 AI 애플리케이션에 대해 10배 향상된 신뢰성과 5배 더 긴 가동 시간을 제공합니다. 동시에 5배 향상된 전력 효율성을 달성하며 기존 방식 대비 와트당 성능을 극대화하죠. Spectrum-X 이더넷 플랫폼의 일부인 Spectrum-XGS 이더넷 기술은 수백 킬로미터 이상 떨어져 있는 시설에서도 단일 AI 환경처럼 기능할 수 있도록 지원합니다.

이러한 기술은 NVIDIA Spectrum-X 이더넷 플랫폼의 차세대 혁신을 제시합니다. Rubin을 위해 고도로 공동 설계된 이 플랫폼은 대규모 AI 팩토리 구현을 가능하게 하며, 향후 수백만 GPU 규모 환경으로의 확장을 위한 토대를 마련하죠.

Rubin 출시

NVIDIA Rubin은 현재 본격 양산 단계에 있으며, Rubin 기반 제품은 2026년 하반기에 파트너사를 통해 출시될 예정입니다.

2026년 Vera Rubin 기반 인스턴스를 가장 먼저 배포할 클라우드 제공업체로는 AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 NVIDIA Cloud Partner인 코어위브, 람다, 네비우스, 엔스케일 등이 있습니다.

마이크로소프트는 향후 페어워터(Fairwater) AI 슈퍼팩토리를 포함한 차세대 AI 데이터센터에 NVIDIA Vera Rubin NVL72 랙 스케일 시스템을 배포할 예정입니다.

훈련과 추론 워크로드에 전례 없는 효율성과 성능을 제공하도록 설계된 Rubin 플랫폼은 마이크로소프트의 차세대 클라우드 AI 기능의 기반을 제공할 예정입니다. 마이크로소프트 애저(Azure)는 고객이 기업, 연구, 소비자 애플리케이션 전반에서 혁신을 가속화할 수 있도록 고도로 최적화된 플랫폼을 제공할 전망입니다.

코어위브는 2026년 하반기부터 NVIDIA Rubin 기반 시스템을 AI 클라우드 플랫폼에 통합할 예정입니다. 코어위브는 여러 아키텍처의 동시 운영이 가능하도록 하며, 이를 통해 고객이 Rubin 시스템을 자신의 환경에 도입해 훈련, 추론, 에이전틱 워크로드 전반에 걸쳐 최고의 효과를 얻을 수 있도록 지원합니다.

코어위브는 NVIDIA와 협력해 AI 혁신가들이 Rubin의 첨단 추론, MoE 모델을 활용할 수 있도록 지원할 예정입니다. 동시에 코어위브 미션 컨트롤을 통해 프로덕션 AI의 생명 주기에 걸쳐 필요한 성능, 운영 안전성, 확장성을 지속적으로 제공할 방침이죠.

또한 시스코, , HPE, 레노버, 슈퍼마이크로는 향후 Rubin 제품을 기반으로 다양한 서버를 선보일 계획입니다.

AI 연구소들 역시 이전 세대 GPU 대비 더 낮은 레이턴시와 비용으로 더욱 크고 고도화된 모델을 훈련하고, 장문 컨텍스트 기반의 멀티모달 시스템을 제공하기 위해 NVIDIA Rubin 플랫폼에 주목하고 있습니다. 여기에는 앤트로픽, 블랙 포레스트, 코히어, 커서, 하비, 메타, 미스트랄 AI, 오픈AI, 오픈에비던스, 퍼플렉시티, 런웨이, 싱킹 머신즈 랩, xAI 등이 있죠.

AIC, 캐노니컬(Canonical), 클라우디안(Cloudian), DDN, 델, HPE, 히타치 반타라(Hitachi Vantara), IBM, 넷앱(NetApp), 뉴타닉스(Nutanix), 퓨어스토리지(Pure Storage), 슈퍼마이크로, 수세(SUSE), 바스트 데이터(VAST Data), 웨카(WEKA)를 비롯한 인프라 소프트웨어, 스토리지 파트너사들은 NVIDIA와 협력해 Rubin 인프라를 위한 차세대 플랫폼을 설계하고 있습니다.

Rubin 플랫폼은 80곳 이상의 NVIDIA MGX™ 생태계 파트너와 함께하는 NVIDIA의 3세대 랙 스케일 아키텍처를 선보입니다.

이러한 고밀도 컴퓨팅을 실현하기 위해, 레드햇(Red Hat)은 협력을 확대해 NVIDIA Rubin 플랫폼에 최적화된 레드햇 하이브리드 클라우드 포트폴리오 기반 전체 AI 스택을 제공한다고 발표했는데요. 여기에는 레드햇 엔터프라이즈 리눅스(Enterprise Linux), 레드햇 오픈시프트(OpenShift), 레드햇 AI가 포함되죠. 이러한 솔루션은 포춘 글로벌 500(Fortune Global 500) 기업의 대다수에서 사용되고 있습니다.

자세한 내용은 NVIDIA Live at CES 다시보기와 ‘Inside Vera Rubin’ 기술 블로그를 통해 확인할 수 있습니다.