오픈AI의 GPT-5.5, NVIDIA 인프라 위에서 Codex를 이끌다 — NVIDIA는 이미 현장에서 활용 중

오픈AI GPT-5.5 기반 Codex가 NVIDIA GB200 NVL72 위에서 구동됩니다. 10,000명 이상의 NVIDIA 임직원이 이미 활용 중이며, 디버깅이 며칠에서 몇 시간으로 단축되고 자연어 프롬프트만으로 엔드투엔드 기능 출시가 가능해졌습니다.
by NVIDIA Korea

AI 에이전트는 개발자 워크플로를 이미 바꿔놓았고, 이제는 지식 업무 전반—정보 처리, 복잡한 문제 해결, 새로운 아이디어 도출, 혁신 주도—으로 그 영역을 넓히고 있습니다.

오픈AI의 에이전트 코딩 애플리케이션 Codex가 바로 이 새로운 영역을 열어가는데요, 오픈AI의 최신 프론티어 모델인 GPT-5.5를 탑재하고 NVIDIA GB200 NVL72 랙 스케일 시스템 위에서 구동됩니다.

엔지니어링, 제품, 법무, 마케팅, 재무, 영업, HR, 운영, 개발자 프로그램 등 다양한 직군에 걸쳐 10,000명 이상의 NVIDIA 임직원이 GPT-5.5 기반 Codex를 이미 활용하고 있으며, 이를 사용해본 이들은 “정신이 번쩍 든다”, “삶이 바뀌었다”는 말을 서슴없이 내놓고 있습니다.

NVIDIA 엔지니어들은 몇 주 전부터 Codex 앱을 통해 GPT-5.5를 사용해왔고, 그 성과는 수치로도 입증됩니다. GB200 NVL72에서 서비스되는 GPT-5.5는 이전 세대 시스템 대비 토큰 100만 개당 비용을 35배 절감하고, 메가와트당 초당 토큰 처리량을 50배 높이는데요, 이는 프론티어 모델 추론을 기업 규모에서도 현실적으로 운영할 수 있게 만드는 경제성입니다.

며칠씩 걸리던 디버깅 사이클이 몇 시간 안에 끝나고, 몇 주가 필요하던 실험이 복잡한 멀티파일 코드베이스에서도 하룻밤 사이에 결과를 냅니다. 팀들은 자연어 프롬프트만으로 엔드투엔드 기능을 출시하고 있으며, 이전 모델보다 높은 안정성과 낭비 없는 사이클을 경험하고 있어요.

오픈AI의 눈부신 발전은 NVIDIA가 모든 프론티어 모델 기업과 함께 해온 협력의 또 다른 증거입니다. 단순히 NVIDIA 내부에서 AI 에이전트 활용을 가속하는 데 그치지 않고, 파트너들이 세계 최고 수준의 모델을 가장 낮은 비용으로, 가장 높은 전력 효율로 구축할 수 있도록 지원해온 결과이기도 하죠.

젠슨 황 CEO는 임직원 전체에게 Codex 사용을 독려하는 이메일에서 이렇게 밝혔습니다. “광속으로 도약합시다. AI의 시대에 오신 것을 환영합니다.”

기업 보안을 위한 배포 방식

인간과 마찬가지로, 모든 에이전트에게는 전용 컴퓨터가 필요합니다. Codex 앱은 승인된 클라우드 가상 머신(VM)에 원격 SSH 연결을 지원하며, 이를 통해 에이전트가 실제 회사 데이터를 외부에 노출하지 않으면서도 활용할 수 있도록 설계되어 있어요. 덕분에 안전한 기업 환경에서도 원활하게 운영됩니다.

최고 수준의 보안성과 감사 가능성을 확보하기 위해, NVIDIA IT는 전 임직원에게 클라우드 VM을 배포해 에이전트가 안전하게 실행되도록 했습니다. 이 전용 샌드박스는 에이전트가 최대한의 능력을 발휘하는 동시에 완전한 감사 추적을 유지하게 해주며, 사용자는 익숙한 UI를 통해 클라우드 VM에서 실행 중인 Codex 에이전트를 직접 제어할 수 있습니다.

NVIDIA의 배포에는 제로 데이터 보존 정책이 적용되며, 에이전트는 CLI와 Skills—NVIDIA가 사내 자동화 워크플로 전반에 활용하는 에이전트 툴킷—를 통해 운영 시스템에 읽기 전용 권한으로 접근합니다.

10년을 이어온 풀 스택 협업

GPT-5.5 출시와 Codex 전사 도입은 NVIDIA와 오픈AI가 10년 넘게 쌓아온 협력 관계를 반영합니다. 2016년, 젠슨 황 CEO가 첫 NVIDIA DGX-1 AI 슈퍼컴퓨터를 오픈AI 샌프란시스코 본사에 직접 전달하며 시작된 파트너십이에요.

그 이후 두 회사는 AI 풀 스택 전반에 걸쳐 긴밀하게 협력해왔습니다. NVIDIA는 오픈AI의 gpt-oss 오픈 웨이트 모델 출시의 Day-0 파트너로서, NVIDIA TensorRT-LLM과 vLLM, Ollama 등 에코시스템 프레임워크에 최적화된 모델 웨이트를 제공했고, 오픈AI는 차세대 AI 인프라를 위해 NVIDIA 시스템 10기가와트 이상을 배포하기로 약정했습니다. 이 구축 계획은 앞으로도 수년간 오픈AI의 모델 학습과 추론의 기반에 수백만 개의 NVIDIA GPU를 자리하게 합니다.

또한 오픈AI와 NVIDIA는 초기 실리콘 및 공동 설계 파트너로서, 오픈AI가 NVIDIA 하드웨어 로드맵에 피드백을 제공하고 그 대가로 새로운 아키텍처에 조기 접근할 수 있는 관계를 이어왔습니다. 이 관계가 구체적인 이정표를 만들어냈는데요, 첫 GB200 NVL72 10만 GPU 클러스터의 공동 브링업이 바로 그것입니다. 이 클러스터는 대규모 트레이닝 런을 여러 차례 완료하며, 프론티어 스케일에서 시스템 수준 안정성의 새로운 기준을 세웠습니다.

GPT-5.5는 바로 그 인프라가 최대 출력으로 가동된 결과물입니다.