NVIDIA DGX Cloud Lepton™이 보다 더욱 확장됩니다! NVIDIA DGX Cloud Lepton은 글로벌 컴퓨팅 마켓플레이스를 갖춘 AI 플랫폼으로, 에이전틱 AI와 물리 AI 애플리케이션을 구축하는 개발자를 연결해주는데요, 이제 더 많은 클라우드 제공업체 네트워크에서도 GPU를 제공하게 됐습니다.
이제 미스트랄 AI(Mistral AI), 네비우스(Nebius), 엔스케일(Nscale), 파이어버드(Firebird), 플루이드스택(Fluidstack), 하이드라 호스트(Hydra Host), 스케일웨이(Scaleway), 투게더 AI(Together AI)는 NVIDIA Blackwell과 기타 NVIDIA 아키텍처 GPU를 마켓플레이스에 제공합니다. 이를 통해 고성능 컴퓨팅에 대한 지역 내 접근성을 확대하죠. 또한, 아마존 웹 서비스(Amazon Web Services, AWS)와 마이크로소프트 애저(Microsoft Azure)는 DGX Cloud Lepton에 참여하는 최초의 대규모 클라우드 제공업체가 될 예정인데요. 이 회사들은 코어위브(CoreWeave), 크루소(Crusoe), 퍼머스(Firmus), 폭스콘(Foxconn), GMI 클라우드(GMI Cloud), 람다(Lambda), 요타 데이터 서비스(Yotta Data Services)와 함께 마켓플레이스에 합류하게 됐습니다.
허깅 페이스(Hugging Face)는 글로벌 AI 커뮤니티가 가속 컴퓨팅을 더 쉽게 이용할 수 있도록 서비스형 트레이닝 클러스터(Training Cluster as a Service)를 도입합니다. 이 새로운 서비스는 DGX Cloud Lepton과 통합돼 파운데이션 모델을 구축하는 AI 연구자와 개발자를 NVIDIA 컴퓨팅 생태계와 원활하게 연결하죠.
그리고 유럽의 주요 벤처 캐피탈 회사인 액셀(Accel), 엘라이아(Elaia), 파텍(Partech), 소피노바 파트너스(Sofinnova Partners)와 협력해, 포트폴리오 회사에 DGX Cloud Lepton 마켓플레이스 크레딧을 제공합니다. 스타트업이 가속 컴퓨팅 리소스를 이용하고 지역 개발을 확장할 수 있도록 지원하는 것이죠.
NVIDIA 젠슨 황 CEO는 “DGX Cloud Lepton은 유럽의 개발자들을 글로벌 AI 인프라에 연결하고 있습니다. NVIDIA는 개발자, 연구원, 기업이 지역적 혁신을 전 세계적 혁신으로 확장하는 데 활용 가능한 AI 팩토리 네트워크를 역내 파트너들과 함께 구축하고 있습니다”고 소감을 밝혔습니다.
DGX Cloud Lepton은 NVIDIA 컴퓨팅 생태계 전반의 클라우드 AI 서비스와 GPU 성능을 단일 플랫폼으로 통합합니다. 이를 통해 특정 지역에서 안정적인 고성능 GPU 리소스에 액세스하는 절차를 간소화하죠. 덕분에 개발자는 데이터를 로컬에서 유지해 데이터 거버넌스와 소버린 AI의 요구 사항을 지원할 수 있습니다.
DGX Cloud Lepton은 규모에 관계없이 모든 단계의 AI 애플리케이션 개발과 배포를 간소화하고 가속화해주는데요, 이는 NVIDIA NIM™, NeMo™ 마이크로서비스, NVIDIA Cloud Functions을 비롯한 NVIDIA 소프트웨어 제품군과의 통합으로 가능한 것인데요. 마켓플레이스는 새로운 NIM 마이크로서비스 컨테이너와 함께 작동하며, 거대 언어 모델(LLM)을 폭넓게 지원합니다. 여기에는 가장 인기 있는 개방형 LLM 아키텍처와 허깅 페이스에서 공개, 비공개로 호스팅되는 백만 개 이상의 모델이 포함됩니다.
한편 DGX Cloud Lepton은 클라우드 제공업체를 위한 관리 소프트웨어를 탑재해 실시간 GPU 상태를 지속적으로 모니터링하고 근본적인 원인 분석을 자동화합니다. 수동 개입을 최소화하고 가동 중단 시간을 줄이며, 제공업체의 운영을 간소화해, 고객이 고성능 컴퓨팅을 더 안정적으로 이용할 수 있도록 하죠.
NVIDIA DGX Cloud Lepton으로 훈련과 배포 가속화
전략적 AI 구상을 가속화하기 위해 DGX Cloud Lepton 플랫폼을 사용하는 얼리 액세스 고객은 다음과 같습니다.
- 베이스캠프 리서치(Basecamp Research)는 98억 개의 단백질 데이터베이스를 활용해 대규모 생물학적 파운데이션 모델을 사전 훈련시키고 배포합니다. 이로써 제약, 식품, 산업, 환경 생명공학을 위한 새로운 생물학적 솔루션의 발견과 설계를 가속화하고 있죠.
- EY는 도메인별, 부문별 솔루션을 위한 AI 에이전트 개발을 가속화하기 위해 글로벌 조직 전반에서 멀티 클라우드 액세스를 표준화하고 있습니다.
- 아우터바운즈(Outerbounds)는 오픈 소스 메타플로우(Metaflow)의 입증된 신뢰성을 기반으로 고객이 차별화된 프로덕션급 AI 제품을 구축하도록 지원합니다.
- 프리마 멘테(Prima Mente)는 대규모 뇌 기반 모델을 사전 훈련시켜 새로운 질병 메커니즘을 규명하고 임상 환경에서 환자 예후를 계층화하는 도구를 개발합니다. 이를 통해 신경 퇴행성 질환 연구를 대규모로 발전시키고 있습니다.
- 리플렉션(Reflection)은 가장 복잡한 기업 엔지니어링 작업을 처리하는 초지능형 자율 코딩 시스템을 구축하고 있습니다.
허깅 페이스 개발자, 클라우드 전반에서 확장 가능한 AI 훈련 액세스 가능
DGX Cloud Lepton과 허깅 페이스의 서비스형 트레이닝 클러스터를 통합하면 AI 빌더는 GPU 마켓플레이스에 대한 액세스를 간소화할 수 있습니다. 이를 통해 AI 빌더는 훈련 데이터와 가까운 특정 지역에서 NVIDIA 컴퓨팅 리소스를 쉽게 확보, 액세스, 사용할 수 있죠. 글로벌 클라우드 제공업체 네트워크에 연결된 허깅 페이스 고객은 DGX Cloud Lepton을 사용해 훈련 실행에 필요한 GPU 성능을 빠르게 확보할 수 있습니다.
미러 피직스(Mirror Physics), 프로젝트 누미나(Project Numina), 텔레톤 유전학·의학 연구소(Telethon Institute of Genetics and Medicine)는 DGX Cloud Lepton으로 제공되는 컴퓨팅 리소스를 통해 서비스형 트레이닝 클러스터에 액세스하는 최초의 허깅 페이스 고객이 됩니다. 이들은 DGX Cloud Lepton 플랫폼을 사용해 화학, 재료 과학, 수학, 질병 연구 분야에서 최첨단 AI 모델을 발전시킬 계획이죠.
허깅 페이스의 공동 창립자 겸 CEO인 Clément Delangue는 “대규모 고성능 컴퓨팅에 대한 액세스는 모든 도메인과 언어에서 차세대 AI 모델을 구축하기 위해 필수입니다. DGX Cloud Lepton과 서비스형 트레이닝 클러스터의 통합은 연구자와 기업의 장벽을 없애 최첨단 모델을 훈련하고, AI의 한계를 뛰어넘는 가능성을 열어줄 것”이라고 말했습니다.
DGX Cloud Lepton으로 강화되는 AI 스타트업 생태계
NVIDIA는 액셀, 엘라이아, 파텍, 소피노바 파트너즈와 협력해 자격 요건에 맞는 포트폴리오 회사를 대상으로 DGX Cloud Lepton을 통한 최대 10만 달러의 GPU 성능 크레딧과 NVIDIA 전문가 지원을 제공하고 있는데요,
바이오코텍스(BioCorteX), 바이옵티머스(Bioptimus), 레이턴트 랩스(Latent Labs)는 DGX Cloud Lepton에 최초로 액세스하게 될 예정인데요. 이들은 컴퓨팅 성능을 검색하고 구매할 수 있죠. 또한, NVIDIA 소프트웨어와 서비스, AI 전문 지식을 활용해 글로벌 클라우드 제공업체 네트워크에서 애플리케이션을 구축하고 맞춤화, 배포할 수 있습니다.
DGX Cloud Lepton 사용하기
개발자라면 NVIDIA DGX Cloud Lepton의 얼리 액세스를 신청할 수 있습니다.
보다 자세한 사항은 NVIDIA 젠슨 황 CEO의 NVIDIA GTC Paris 키노트를 시청하세요. VivaTech 2025에서 개최되는 GTC Paris 세션에서도 보다 다양한 내용을 확인할 수 있습니다.