OpenAI는 전문 지식 업무를 위해 지금까지 선보인 것 중 가장 뛰어난 모델 시리즈인 GPT-5.2를 공개했습니다. 이 모델은 NVIDIA Hopper 및 GB200 NVL72 시스템을 포함한 NVIDIA 인프라에서 학습되고 배포되었습니다.
이는 선도적인 AI 개발자들이 NVIDIA의 풀스택 AI 인프라 위에서 어떻게 대규모로 모델을 학습하고 배포하는지를 보여주는 가장 최근 사례이기도 하죠.
사전학습: 인공지능의 초석
AI 모델은 사전학습(pretraining), 사후학습(post-training), 테스트-타임 스케일링(test-time scaling)이라는 세 가지 스케일링 법칙 덕분에 점점 더 강력해지고 있습니다. 복잡한 질의를 처리하기 위해 추론 단계에서 여러 네트워크를 함께 활용하며 연산을 수행하는 추론 모델(reasoning model)은 이제 어디에나 존재하죠.
하지만 그럼에도 사전학습과 사후학습은 여전히 지능의 초석으로 남아 있습니다. 이는 추론 모델을 더욱 똑똑하고 유용하게 만드는 핵심이기도 합니다.
이 수준에 도달하려면 거대한 규모가 필요한데요, 최첨단 프론티어 모델을 처음부터 학습하는 일은 결코 작은 작업이 아닙니다. 수만, 많게는 수십만 개의 GPU가 효과적으로 함께 동작해야 하죠.
이러한 규모를 달성하려면 여러 측면에서 탁월함이 요구됩니다. 세계 최고 수준의 가속기와, 스케일업, 스케일아웃, 그리고 다양한 스케일에 걸쳐 아키텍처 전반에 걸친 첨단 네트워킹, 그리고 완전히 최적화된 소프트웨어 스택이 필요합니다. 즉, 대규모 성능을 구현하기 위해 설계된, 목적 지향적 인프라 플랫폼이 요구되는 것이죠.
NVIDIA Hopper 아키텍처와 비교했을 때, NVIDIA GB200 NVL72 시스템은 최신 MLPerf Training 업계 벤치마크에서 테스트된 가장 큰 모델에서 최대 3배 빠른 학습 성능과, 달러당 성능 기준으로는 거의 2배에 달하는 향상을 보여주었습니다. 또한 NVIDIA GB300 NVL72는 NVIDIA Hopper 대비 4배가 넘는 속도 향상을 제공합니다.
이러한 성능 향상 덕분에 AI 개발자들은 개발 주기를 단축하고, 새로운 모델을 더 빠르게 배포할 수 있게 되었습니다.
모든 모달리티에서 그 성능을 입증하고 있는 모델
오늘날 선도적인 초거대 언어 모델의 상당수는 NVIDIA 플랫폼에서 학습되었습니다. 그리고 이제 AI는 단지 텍스트만을 의미하지 않죠.
NVIDIA는 음성, 이미지, 동영상 생성은 물론, 생물학과 로보틱스 같은 새로운 영역에 이르기까지 여러 모달리티에 걸친 AI 개발을 지원하고 있습니다. 예를 들어 Evo 2 같은 모델은 유전자 서열을 해독하고, OpenFold3는 3D 단백질 구조를 예측하며, Boltz-2는 약물 상호작용을 시뮬레이션해서 연구자들이 유망한 후보 물질을 더 빠르게 찾을 수 있도록 도와줍니다.
임상 측면에서 NVIDIA Clara 합성 모델은 환자 데이터를 노출하지 않으면서도, 검진과 진단을 고도화하기 위해 현실감 있는 의료 영상을 생성합니다. 또 Runway와 Inworld 같은 회사들은 NVIDIA 인프라 위에서 모델을 학습하고 있습니다.
Runway는 지난주 Artificial Analysis 리더보드 기준으로 현재 세계 최고 평가를 받고 있는 새로운 프런티어 비디오 생성 모델 Gen-4.5를 발표했습니다. 현재 NVIDIA Blackwell에 최적화된 Gen-4.5는 초기 연구·개발 단계부터 사전 학습, 후속 학습, 추론에 이르기까지 전 과정이 NVIDIA GPU에서 이루어졌습니다.
Runway는 또한 NVIDIA Blackwell에서 학습된, 현실을 실시간으로 시뮬레이션하도록 설계된 최첨단 범용 세계 모델 GWM-1도 발표했습니다. 이 모델은 대화형이고 제어 가능하며 범용적으로 설계되어 비디오 게임, 교육, 과학, 엔터테인먼트, 로보틱스 등 다양한 분야에 활용될 수 있습니다.
그 이유는 벤치마크 결과가 잘 보여주는데요, MLPerf는 학습 성능을 측정하는 업계 표준 벤치마크입니다. 최신 라운드에서 NVIDIA는 MLPerf Training 5.1의 7개 모든 벤치마크에 결과를 제출해 강력한 성능과 높은 범용성을 입증했으며, 모든 카테고리에 결과를 제출한 유일한 플랫폼이었습니다.
NVIDIA가 다양한 AI 작업 부하를 지원할 수 있는 능력은 데이터 센터가 자원을 더 효율적으로 활용하도록 도와줍니다. 이 때문에 Black Forest Labs, Cohere, Mistral, OpenAI, Reflection, Thinking Machines Lab과 같은 AI 연구소들이 모두 NVIDIA Blackwell 플랫폼에서 모델을 학습하고 있는 것입니다.
클라우드와 데이터 센터 전반에 걸친 NVIDIA Blackwell
NVIDIA Blackwell은 주요 클라우드 서비스 제공업체, 네오 클라우드, 서버 제조사 전반에 널리 제공되고 있습니다. 그리고 더 높은 연산 성능, 메모리 용량, 아키텍처 개선을 제공하는 NVIDIA Blackwell Ultra도 이제 서버 제조사와 클라우드 서비스 제공업체들을 통해 순차적으로 출시되고 있습니다.
Amazon Web Services, CoreWeave, Google Cloud, Lambda, Microsoft Azure, Nebius, Oracle Cloud Infrastructure, Together AI 등을 포함한 주요 클라우드 서비스 제공업체와 NVIDIA 클라우드 파트너들은 이미 NVIDIA Blackwell 기반 인스턴스를 제공하고 있어서, 사전 학습 확장이 계속되는 가운데에서도 확장 가능한 성능을 보장합니다.
최첨단 모델부터 일상적인 AI에 이르기까지, 미래는 NVIDIA 위에서 만들어지고 있습니다.
NVIDIA Blackwell 플랫폼에 대해서 여기에서 더 자세히 알아보세요.
