오픈소스 AI는 산업 전반의 혁신을 앞당기고 있습니다. 이 가운데 NVIDIA DGX Spark와 DGX Station은 개발자가 혁신을 실질적인 성과로 연결할 수 있도록 설계됐습니다.
CES에서 공개된 NVIDIA DGX Spark와 DGX Station 데스크사이드 AI 슈퍼컴퓨터는 로컬 데스크사이드 시스템에서 최신 오픈, 프론티어 AI 모델을 구동할 수 있습니다. DGX Spark는 1,000억 파라미터 모델을, DGX Station은 1조 파라미터 모델을 실행할 수 있죠.
NVIDIA Grace Blackwell 아키텍처 기반으로 구동되는 이들 시스템은 대규모 통합 메모리와 페타플롭급 AI 성능을 제공합니다. 또한 개발자가 로컬에서 개발하고, 필요할 경우 클라우드로 유연하게 확장할 수 있도록 새로운 기능을 지원합니다.
오픈소스 AI 모델 전반의 성능 향상
과거 데이터센터급 인프라가 필요했던 고도로 최적화된 오픈 모델은 이제 지속적인 모델 최적화, 오픈소스 커뮤니티와의 협업 덕분에 DGX Spark와 DGX Station에서 데스크톱 환경으로 가속할 수 있습니다.
DGX Spark는 NVIDIA AI 소프트웨어와 NVIDIA CUDA-X 라이브러리가 사전 구성돼 있습니다. 따라서 개발자, 연구자, 데이터 과학자가 AI를 구축, 파인튜닝, 실행할 수 있도록 강력한 플러그-앤-플레이(plug-and-play) 최적화를 제공하죠.
Spark는 모든 개발자가 자신의 책상에서 최신 AI 모델을 실행할 수 있는 기반을 제공합니다. Station은 기업과 연구소가 보다 고도화된 대규모 프론티어 AI 모델을 실행할 수 있도록 지원하죠. 두 시스템은 최신 프레임워크와 오픈소스 모델을 데스크톱에서 바로 실행할 수 있도록 지원하며, 여기에는 최근 발표된 NVIDIA Nemotron 3 모델이 포함됩니다.
DGX Spark를 구동하는 NVIDIA Blackwell 아키텍처에는 NVFP4 데이터 포맷이 포함됩니다. 덕분에 AI 모델을 최대 70%까지 압축할 수 있으며, 인텔리전스 손실 없이 성능을 높일 수 있죠.
llama.cpp를 비롯한 오픈소스 소프트웨어 생태계 간의 협업은 성능을 한층 더 끌어올리고 있습니다. DGX Spark에서 최첨단 AI 모델을 실행하면 성능이 평균 35% 향상되는데요. llama.cpp에는 거대 언어 모델(LLM) 로딩 시간을 단축하는 편의성 업그레이드도 포함돼 있습니다.
DGX Station은 GB300 Grace Blackwell Ultra 슈퍼칩과 FP4 정밀도 기반 일관적(coherent) 메모리 775GB를 탑재해 최대 1조 파라미터 모델을 실행할 수 있습니다. 이는 선도적인 AI 연구소에 대규모 모델을 위한 최첨단 데스크톱 컴퓨팅 역량을 제공하죠. 여기에는 키미-K2 씽킹(Kimi-K2 Thinking), 딥시크-V3.2(DeepSeek-V3.2), 미스트랄 라지 3(Mistral Large 3), 메타 라마 4 매버릭(Meta Llama 4 Maverick), 큐원3(Qwen3), 오픈AI(OpenAI) gpt-oss-120b 등 다양한 고급 AI 모델이 포함돼 있습니다.
vLLM의 핵심 메인테이너(core maintainer)인 Kaichao You는 “NVIDIA GB300은 보통 랙 스케일 시스템으로 배포됩니다. 이 때문에 vLLM 같은 프로젝트가 강력한 GB300 슈퍼칩에서 직접 테스트하고 개발하는 데 어려움이 있죠. DGX Station은 이런 구조를 바꿉니다. DGX Station은 콤팩트한 GB300 단일 시스템 폼팩터 데스크사이드를 제공해 vLLM이 훨씬 낮은 비용으로 GB300 특화 기능을 테스트하고 개발할 수 있게 해주죠. 이는 개발 주기를 가속하고, vLLM이 GB300을 대상으로 지속적으로 검증하고 최적화하는 작업을 쉽게 합니다”고 말했습니다.
SGLang의 커뮤니티 기여자인 Jerry Zhou는 “DGX Station은 데이터센터급 GPU 기능을 내 방 안으로 가져옵니다. 이는 큐원3-235B 같은 초대형 모델을 구동하고, 대규모 모델 구성으로 훈련 프레임워크를 테스트하죠. 또한 매우 큰 행렬 크기의 CUDA 커널을 개발하는 작업까지 모두 클라우드 랙에 의존하지 않고 로컬에서 수행할 수 있을 만큼 충분히 강력합니다. 시스템과 프레임워크 개발의 반복 주기를 획기적으로 단축합니다”고 말했습니다.
CES에서 다음과 같은 DGX Station 기능을 시연했습니다.
- 초당 25만 토큰 속도로 진행되는 LLM 사전 훈련
- 카테고리 클러스터의 수백만 개 데이터 포인트를 대규모로 시각화. 토픽 모델링 워크플로우는 NVIDIA cuML 라이브러리로 가속화된 머신 러닝 기법과 알고리즘을 활용
- Text to Knowledge Graph와 Llama 3.3 Nemotron Super 49B를 활용해 대규모 지식 데이터베이스를 높은 정확도로 시각화
AI, 크리에이터 워크플로우 확장
DGX Spark와 Station은 프로토타이핑과 파인튜닝부터 추론과 데이터 과학까지 AI 개발 전 과정을 지원하도록 설계됐습니다. 이는 의료, 로보틱스, 유통, 크리에이티브 워크플로우 등 다양한 산업 특화 AI 애플리케이션을 폭넓게 지원하는데요.
블랙 포레스트 랩스(Black Forest Labs)의 플럭스.2(FLUX.2)와 플럭스.1(FLUX.1), 알리바바(Alibaba)의 큐원-이미지(Qwen-Image) 등 최신 디퓨전, 비디오 생성 모델은 이제 NVFP4를 지원해 크리에이터의 메모리 사용량을 줄이고 성능을 가속합니다. 또한 라이트릭스(Lightricks)의 신규 LTX-2 비디오 모델은 현재 다운로드 가능하며, NVIDIA GPU용 NVFP8 양자화 체크포인트를 포함해 최상위 클라우드 모델에 준하는 품질을 제공하죠.
CES 기술 시연에서 DGX Spark는 크리에이터 노트북에서 수행되던 고부하 비디오 생성 작업을 대신 처리했습니다. 이를 통해 최상급 M4 맥스 탑재 맥북 프로(MacBook Pro with M4 Max) 대비 8배 빠른 가속을 달성하고 로컬 시스템은 중단 없는 창작 작업에 활용될 수 있음을 보여줬죠.
오픈소스 RTX Remix 모딩 플랫폼은 곧 3D 아티스트와 모더가 DGX Spark를 활용해 생성형 AI 기반 제작 속도를 높일 수 있도록 지원하게 될 전망입니다. 또 다른 CES 기술 시연에서는 모드 팀이 모든 에셋 생성 작업을 DGX Spark로 오프로딩해, PC에서 멈춤 없이 모딩을 진행하면서 게임 내 변경 사항을 실시간으로 확인할 수 있는 방식을 선보입니다.
AI 코딩 어시스턴트도 개발자 생산성을 혁신시키고 있죠. CES에서 NVIDIA Nsight 기반 로컬 CUDA 코딩 어시스턴트를 DGX Spark에서 시연합니다. 이를 통해 개발자는 소스 코드를 로컬에 안전하게 보관하면서도 AI 기반 엔터프라이즈 개발의 이점을 누릴 수 있습니다.
AI 업계 리더들이 검증하는 로컬 AI로의 전환
엣지에서 안전한 고성능 AI에 대한 수요가 증가함에 따라, DGX Spark는 산업 전반에서 주목받고 있습니다.
소프트웨어 선도 기업, 오픈소스 혁신 기업, 글로벌 워크스테이션 파트너들이 DGX Spark를 도입해 중앙집중형 인프라의 복잡성 없이 로컬 추론, 에이전틱 워크플로우, 검색 증강 생성(RAG)을 구현하고 있습니다.
이들의 관점은 DGX Spark가 데스크톱에서 더 빠른 반복 작업, 데이터, 지적 재산권에 대한 제어 강화, 그리고 더 풍부한 상호작용형 AI 경험을 가능하게 한다는 점을 보여주는데요.
CES에서 DGX Spark의 처리 성능을 허깅페이스(Hugging Face) 리치 미니(Reachy Mini) 로봇과 함께 활용해 AI 에이전트를 현실 세계로 확장하는 방법도 시연합니다.
허깅페이스 제품 부문 부사장 Jeff Boudier는 “오픈 모델은 개발자가 자신만의 방식으로 AI를 구축할 수 있는 자유를 제공하며, DGX Spark는 그 힘을 데스크톱으로 직접 가져옵니다. 이를 리치 미니와 연결하면 로컬 AI 에이전트가 물리적 형태를 갖추고 고유한 목소리를 지니게 되죠. 사용자를 보고, 듣고, 표현력 있는 동작으로 반응할 수 있어, 강력한 AI를 실제로 상호작용할 수 있는 존재로 바꿉니다”고 말했습니다.
허깅페이스와 NVIDIA는 DGX Spark와 리치 미니를 사용해 인터랙티브 AI 에이전트를 구축하는 단계별 가이드도 공개했습니다.
IBM 데이터·AI 플랫폼 전략 부문 부사장 Ed Anuff는 “DGX Spark는 AI 추론을 엣지 컴퓨팅 환경으로 가져옵니다. Spark에서 오픈RAG(OpenRAG)를 사용하면 추출, 임베딩, 검색, 추론까지 포함된 완전한 독립형 RAG 스택을 단일 시스템에서 확보할 수 있습니다”고 말했죠.
제트브레인(JetBrains) CEO Kirill Skrygan은 “보안, 거버넌스, 지식재산권에 대한 완전한 통제가 필요한 조직을 위해 NVIDIA DGX Spark는 제트브레인 고객에게 페타플롭급 AI 성능을 제공합니다. 고객이 클라우드, 온프레미스, 하이브리드 배포 중 무엇을 선호하든, 제트브레인 AI는 고객의 환경에 맞춰 설계됐습니다”고 설명했습니다.
트리니티(TRINITY)는 도심 교통을 위해 설계된 지능형 자동 균형 3륜 1인승 차량으로, 이번 CES에서 공개됐는데요. 이 차량은 오픈소스 기반 실시간 비전 언어 모델(VLM) 워크로드의 AI 추론을 수행하기 위한 AI 두뇌로 NVIDIA DGX Spark를 활용합니다.
will.i.am은 “트리니티는 인간, 차량, AI 에이전트가 원활하게 협력하는 마이크로 모빌리티의 미래를 보여줍니다. NVIDIA DGX Spark를 AI 두뇌로 탑재한 트리니티는 대화형 목표 추적 워크플로우를 제공해, 연결된 도시에서 사람들이 모빌리티와 상호작용하는 방식을 혁신합니다. 에이전트 관점에서 설계된 ‘바퀴 달린 두뇌’”라고 덧붙였습니다.
AI 개발자 도입 가속
DGX Spark 플레이북(playbooks)은 개발자가 실제 활용 가능한 AI 프로젝트를 빠르게 시작할 수 있도록 지원합니다. CES에서는 이 라이브러리를 6개의 신규 플레이북과 4개의 주요 업데이트로 확장하고 있다고 발표됐는데요. 여기에는 최신 NVIDIA Nemotron 3 Nano 모델, 로보틱스 훈련, VLM, 두 대의 DGX Spark 시스템을 활용한 AI 모델 파인튜닝, 유전체학, 금융 분석 등 다양한 주제가 포함됩니다.
올해 하반기 출시 예정인 DGX Station을 통해 개발자들은 NVIDIA GB300 시스템으로 시작할 수 있는 더 많은 플레이북을 이용할 수 있습니다.
제조 파트너가 제공하는 DGX Spark와 GB10 시스템을 위한 NVIDIA AI Enterprise 소프트웨어 지원도 현재 이용할 수 있습니다. AI 애플리케이션 개발과 모델 설치를 위한 라이브러리, 프레임워크, 마이크로서비스뿐 아니라 GPU 최적화를 위한 오퍼레이터와 드라이버까지 포함하는 NVIDIA AI Enterprise는 빠르고 안정적인 AI 엔지니어링과 배포를 지원하죠. 라이선스는 1월 말 제공될 예정입니다.
구매하기
DGX Spark와 제조 파트너 GB10 시스템은 에이서(Acer), 아마존(Amazon), 에이수스(ASUS), 델 테크놀로지스(Dell Technologies), 기가바이트(GIGABYTE), HP Inc., 레노버(Lenovo), 마이크로 센터(Micro Center), MSI, PNY를 통해 구매할 수 있습니다.
DGX Station은 2026년 봄부터 에이수스, Boxx, 델 테크놀로지스, 기가바이트, HP Inc., MSI, 슈퍼마이크로(Supermicro)를 통해 구매할 수 있습니다.
DGX Spark를 테크니컬 블로그에서 자세히 알아보세요.
소프트웨어 제품 정보 관련 공지를 참조하세요.
