오픈AI(OpenAI)는 새로운 오픈 웨이트(open-weight) AI 추론 모델 2종인 gpt-oss-120b와 gpt-oss-20b을 공개했는데요. 이는 최첨단 AI 개발 역량을 전 세계 개발자, 기술 애호가, 기업, 스타트업, 정부 등 모든 이들에게 직접 제공하고, 산업과 규모를 막론한 광범위한 활용을 지원합니다.
새로운 모델들에 대한 NVIDIA와 오픈AI의 협력은 커뮤니티 주도의 혁신이 가진 힘을 보여줍니다. 그리고 AI를 전 세계적으로 보급하기 위한 NVIDIA의 기반적 역할도 보여주죠.
누구나 이 모델들을 활용해 생성형 AI, 추론형 AI, 피지컬 AI는 물론 헬스케어, 제조업 등 다양한 분야에서 획기적인 애플리케이션을 개발할 수 있습니다. 또한, AI가 주도하는 차세대 산업 혁명이 지속적으로 전개됨에 따라 새로운 산업의 개척도 가능합니다.
오픈AI의 새로운 유연한 오픈 웨이트 텍스트 추론 거대 언어 모델(LLM)은 NVIDIA H100 GPU에서 훈련됐습니다. 그리고 전 세계 NVIDIA CUDA 플랫폼을 실행하는 수억 개의 GPU에서 최고의 추론 성능을 발휘하죠.
이 모델들은 현재 NVIDIA NIM 마이크로서비스 형태로 제공되는데요. GPU 가속 인프라 어디에서나 유연하게 배포할 수 있고, 데이터 프라이버시와 엔터프라이즈급 보안 기능을 제공합니다.
또한, NVIDIA Blackwell 플랫폼용 소프트웨어 최적화를 통해 NVIDIA GB200 NVL72 시스템에서 최적의 추론 성능을 구현하며, 초당 150만 개의 토큰 처리라는 뛰어난 효율을 자랑합니다.
NVIDIA 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 “오픈AI는 NVIDIA AI를 기반으로 무엇을 구축할 수 있는지 세상에 보여줬습니다. 그리고 이제 오픈소스 소프트웨어 분야에서의 혁신을 이끌고 있죠. gpt-oss 모델은 전 세계 개발자들이 최첨단 오픈소스 기반 위에 구축할 수 있도록 지원하고, 세계 최대 규모의 AI 컴퓨팅 인프라를 기반으로 미국의 AI 기술 리더십을 강화할 것”이라고 말했습니다.
고급 추론 성능을 제공하는 NVIDIA Blackwell
gpt-oss와 같은 고급 추론 모델이 생성하는 토큰 수가 기하급수적으로 증가함에 따라, 컴퓨팅 인프라에 대한 수요도 급격히 증가하고 있는데요. 이러한 수요를 충족하기 위해서는 고성능 추론을 위한 확장성, 효율성, 투자 수익률을 제공하도록 설계된 아키텍처인 NVIDIA Blackwell 기반의 특수 목적 AI 팩토리가 필요합니다.
NVIDIA Blackwell은 NVFP4 4비트 정밀도와 같은 혁신 기술을 포함하고 있습니다. 이 기술은 전력과 메모리 요구 사항을 크게 줄이면서도 매우 효율적인 고정밀 추론을 가능하게 하죠. 이를 통해 수조 개의 파라미터를 갖춘 LLM을 실시간으로 배포할 수 있으며, 기업에 수십억 달러 규모의 가치를 실현할 수 있는 잠재력을 제공합니다.
전 세계 수백만 AI 개발자를 위한 오픈 개발 환경
NVIDIA CUDA는 세계에서 가장 널리 사용되는 컴퓨팅 인프라입니다. 사용자는 강력한 NVIDIA DGX Cloud 플랫폼부터 NVIDIA GeForce RTX, NVIDIA RTX PRO 기반 PC와 워크스테이션에 이르기까지 어디에서나 AI 모델을 배포하고 실행할 수 있습니다.
지금까지 NVIDIA CUDA는 4억 5천만 건이 넘는 다운로드를 기록했는데요. 이제 이 방대한 CUDA 개발자 커뮤니티는 이미 사용 중인 NVIDIA 기술 스택에서 실행되도록 최적화된 최신 모델을 이용할 수 있습니다.
오픈AI와 함께 오픈소스 소프트웨어에 대한 공동의 비전을 실현하기 위해, NVIDIA Tensor-RT LLM과 기타 라이브러리뿐만 아니라 플래시인퍼(FlashInfer), 허깅 페이스(Hugging Face), 라마.cpp(llama.cpp), 올라마(Ollama), vLLM 등 주요 오픈 프레임워크 제공업체와 협력해 모델 최적화를 제공하고 있습니다. 이를 통해 개발자는 자신이 원하는 프레임워크를 사용해 개발할 수 있죠.
오픈소스를 기반으로 한 협업의 역사
이번 모델 공개는 NVIDIA의 풀스택 접근 방식이 전 세계에서 가장 야심찬 AI 프로젝트를 보다 광범위한 사용자층에 제공하는 데 어떻게 기여하는지를 잘 보여줍니다.
이러한 협업의 시작은 2016년으로 거슬러 올라가는데요. 당시 젠슨 황 CEO는 NVIDIA의 첫번째 AI 슈퍼컴퓨터인 DGX-1을 손수 들고 미국 샌프란시스코에 위치한 오픈AI 본사에 방문했죠.
그 이후로 양사는 대규모 AI 훈련에 필요한 핵심 기술과 전문 지식을 제공하며, AI의 한계를 계속해서 확장해왔습니다.
또한, 오픈AI의 gpt-oss 모델을 NVIDIA Blackwell과 RTX GPU 그리고 방대한 소프트웨어 스택에 최적화했는데요. 이를 통해 250개 국가의 약 650만 명 개발자가 사용하는 900개 이상의 NVIDIA 소프트웨어 개발 키트와 AI 모델 기반으로 더욱 빠르고 비용 효율적인 AI 혁신을 가능하게 하고 있습니다.
NVIDIA 테크니컬 블로그와 NVIDIA RTX AI Garage 블로그 시리즈의 최신 글에서 더 자세한 내용을 확인하세요.