챗GPT(ChatGPT)는 시작에 불과합니다.
NVIDIA의 창립자 겸 CEO 젠슨 황은 컴퓨팅이 ‘빛의 속도’로 발전하는 시대에 맞춰, 모든 산업에 새로운 인공지능(AI), 시뮬레이션, 협업 기능을 제공하기 위해 구글(Google), 마이크로소프트(Microsoft), 오라클(Oracle) 등 다양한 선도기업들과 광범위한 파트너십을 체결했다고 발표했습니다.
젠슨 황은 GTC 키노트에서 “워프 드라이브 엔진은 가속 컴퓨팅이고 에너지원은 AI”라며 “생성형 AI의 놀라운 기능을 본 기업들은 제품과 비즈니스 모델을 재창조해야 한다는 위기감을 느꼈을 것”이라고 말했습니다.
GTC 2023을 종합하는 78분 길이의 키노트에서 젠슨 황은 NVIDIA와 파트너들이 어떻게 최첨단 AI 서비스를 위한 훈련에서 배포에 이르기까지 모든 것을 제공하고 있는지 설명하고, 새로운 혁신을 가능하게 하는 새로운 반도체와 소프트웨어 라이브러리를 발표했습니다. 또한 젠슨 황은 이러한 혁신을 전 세계적으로 적용하기 위해 노력하는 스타트업과 기업들을 위한 시스템과 서비스 세트를 공개했습니다.
젠슨 황은 이 생태계를 잘 보여주는 생생한 사례도 함께 소개했는데요. 바로 NVIDIA와 마이크로소프트가 수억 명의 마이크로소프트 365, 애저(Azure) 사용자를 초현실적인 가상 세계를 구축하고 운영할 수 있는 플랫폼에 연결할 것이라고 발표한 것입니다. 아울러 아마존(Amazon)이 정교한 시뮬레이션 기능을 사용하여 새로운 자율주행 창고 로봇을 훈련하는 방법도 소개하고, 챗GPT와 같은 차세대 생성형 AI 서비스의 선풍적인 인기에 대해서도 언급했습니다.
또한 젠슨 황은 NVIDIA 혁신의 기본 특성을 강조하면서, ASML, TSMC, 시놉시스(Synopsis)와 함께 NVIDIA 컴퓨팅 리소그래피(lithography) 혁신이 어떻게 효율적이고 강력한 차세대 2nm 반도체를 실현시키는지 자세히 설명했습니다.
젠슨 황은 무어의 법칙(Moore’s Law)이 둔화되고 산업이 강력한 변화(지속 가능성, 생성형 AI, 디지털화)를 겪는 시점에서 가속 컴퓨팅과 AI가 때맞춰 출현했다고 말했습니다. 이어 “기업들은 디지털화하고 소프트웨어 중심의 기술 기업으로 재탄생하기 위해 노력하고 있다”고 덧붙였죠.
가속화는 이러한 과제에 대한 해결책이 될 수 있습니다. 젠슨 황은 “가속은 힘을 되찾고 지속 가능성과 탄소제로를 달성하는 가장 좋은 방법”이라고 강조했습니다.
프리미어 AI 컨퍼런스 ‘GTC’
올해로 14년째를 맞는 GTC는 이제 세계에서 가장 중요한 AI 콘퍼런스 중 하나가 됐습니다. 컨퍼런스에서는 딥마인드(DeepMind)의 데미스 하사비스(Demis Hassabis), 아르곤 랩스(Argonne Labs)의 발레리 테일러(Valeri Taylor), 어도비(Adobe)의 스콧 벨스키(Scott Belsky), 넷플릭스(Netflix)의 폴 데베벡(Paul Debevec), 취리히 연방 공과대학(ETH Zurich)의 토마스 슐테스(Thomas Schulthess)와 같은 업계 리더의 650개 강연은 물론, 챗GPT를 개발한 오픈AI(OpenAI)의 공동 창립자 일리야 수츠케버(Ilya Sutskever)와 젠슨 황이 나누는 특별 노변담화가 진행됐죠.
250,000명 이상의 사전 등록 참석자는 2,000년 전 잃어버린 로마 모자이크 복원부터 미래의 공장 건설, 거대한 차세대 망원경으로 우주 탐험, 신약 개발 가속화를 위한 분자 재배열, 생성형 AI에 대한 70개 이상의 강연에 이르기까지 모든 것을 총망라한 세션들을 탐구했습니다.
AI의 아이폰 모먼트
NVIDIA의 기술은 AI의 근간입니다. 젠슨 황은 생성형 AI 혁명의 초기에 NVIDIA가 한 역할에 대해 설명했죠. 2016년에 그는 최초의 NVIDIA DGX AI 슈퍼컴퓨터를 오픈AI에 직접 전달했고, 이는 챗GPT를 가능하게 한 대규모 언어 모델(LLM) 혁신의 엔진이라고 할 수 있습니다.
작년 말에 출시된 챗GPT는 1억 명 이상의 사용자를 끌어들이며 거의 순식간에 주류가 됐고, 역사상 가장 빠르게 성장한 애플리케이션이 됐습니다. 젠슨 황은 “우리는 AI가 아이폰과 같은 혁신을 선사하는 순간에 있는 것”이라고 표현했습니다.
젠슨 황에 따르면, 원래 AI 연구에 사용됐던 NVIDIA DGX 슈퍼컴퓨터는 이제 데이터를 정제하고 AI를 프로세싱하기 위해 전 세계 기업에서 24시간 실행되고 있습니다. 포춘(Fortune) 100대 기업 중 절반이 DGX AI 슈퍼컴퓨터를 설치했죠.
젠슨 황은 “DGX 슈퍼컴퓨터는 최신 AI 공장”이라고 말했습니다.
데이터센터용 NVIDIA H100, Grace Hopper, Grace
젠슨 황은 챗GPT와 같은 LLM 배포는 중대한 새로운 추론 워크로드라고 밝혔습니다. 챗GPT와 같은 LLM 추론을 위해 NVIDIA는 듀얼 GPU NVLink를 탑재한 H100 NVL이라는 새로운 GPU를 발표했죠.
NVIDIA Hopper 아키텍처를 기반으로 하는 H100은 챗GPT를 지원하는 GPT 모델과 같은 모델을 프로세싱하도록 설계된 트랜스포머 엔진(Transformer Engine)을 갖추고 있습니다. GPT-3 프로세싱을 위한 HGX A100과 비교할 때, 듀얼 GPU NVLink를 가진 4쌍의 H100으로 구성된 표준 서버는 최대 10배 더 빠릅니다.
젠슨 황은 “H100을 사용하면 LLM 프로세싱 비용을 대폭 줄일 수 있습니다”고 말했죠.
한편, 젠슨 황은 지난 10년 동안 클라우드 컴퓨팅이 연간 20%씩 성장하여 1조 달러 규모의 산업이 되었다고 말했습니다. NVIDIA는 AI 워크로드가 GPU로 가속화되는 AI와 클라우드 퍼스트 세계를 위해 Grace CPU를 설계했는데요. Grace는 현재 샘플링 중입니다.
NVIDIA의 새로운 슈퍼칩인 Grace Hopper는 Grace CPU와 Hopper GPU를 초당 고속 900GB의 일관된 칩 간 인터페이스를 통해 연결합니다. 젠슨 황은 Grace Hopper가 추천 시스템과 LLM을 위한 AI 데이터베이스와 같은 거대한 데이터세트를 프로세싱하는 데 이상적이라고 설명했습니다.
젠슨 황은 “고객은 수십 배 더 큰 AI 데이터베이스를 구축하기를 원한다”며 “Grace Hopper가 이상적인 엔진”이라고 말했습니다.
AI 인프라를 위한 청사진 ‘DGX’
최신 버전 DGX는 8개의 NVIDIA H100 GPU가 함께 연결되어 하나의 거대한 GPU로 작동합니다. 젠슨 황은 “NVIDIA DGX H100은 전 세계적으로 AI 인프라를 구축하는 고객을 위한 청사진”이라고 말했죠.
H100 AI 슈퍼컴퓨터는 이미 가동되고 있습니다. 오라클 클라우드 인프라(Oracle Cloud Infrastructure)는 H100 GPU를 탑재한 새로운 OCI 컴퓨트 베어메탈 GPU 인스턴스를 제한적으로 제공한다고 발표했죠.
또한 아마존웹서비스(AWS)는 최대 20,000개의 상호 연결된 H100 GPU까지 크기를 확장할 수 있는 P5 인스턴스의 EC2 울트라클러스터(UltraClusters)를 발표했습니다.
이는 지난 주 마이크로소프트 애저의 H100 가상 머신인 ND H100 v5의 비공개 프리뷰 발표에 이은 것입니다.
메타(Meta)는 최근 AI 프로덕션과 연구 팀을 위해 내부적으로 H100 기반 그랜드 테톤(Grand Teton) AI 슈퍼컴퓨터를 배포했습니다.
오픈AI는 지속적인 AI 연구를 지원하기 위해 애저의 슈퍼컴퓨터에서 H100을 사용할 예정입니다. 시라스케일(Cirrascale)과 코어위브(CoreWeave)가 H100을 제공할 파트너로 공개됐으며, 이외에 H100을 제공할 예정인 파트너로 구글 클라우드, 람다(Lambda), 페이퍼스페이스(Paperspace), 벌처(Vultr)가 있습니다.
NVIDIA H100 GPU를 탑재한 서버와 시스템은 아토스(Atos), 시스코(Cisco), 델 테크놀로지스(Dell Technologies), 기가바이트(GIGABYTE), 휴렛 팩커드 엔터프라이즈(HPE), 레노버(Lenovo), 슈퍼마이크로(Supermicro) 등 주요 서버 제조업체에서 구입할 수 있습니다.
AI를 모든 기업에 즉각적으로 제공하는 ‘DGX Cloud’
신제품 구축과 AI 전략 개발에 매진하는 스타트업과 기업들의 DGX 기능을 가속화하기 위해, 젠슨 황은 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라와의 파트너십을 통해 NVIDIA DGX Cloud를 발표했습니다. 이로써 NVIDIA DGX AI 슈퍼컴퓨터를 “브라우저를 통해 모든 회사에” 제공할 수 있게 됐죠.
DGX Cloud는 엔드 투 엔드 AI 개발, 배포를 위한 세계 최고의 가속 소프트웨어 제품군인 NVIDIA AI Enterprise 실행에 최적화되어 있습니다. 젠슨 황은 “DGX Cloud를 통해 고객은 최고의 NVIDIA AI와 세계 최고의 클라우드 서비스 제공업체를 이용할 수 있다”고 말했습니다.
NVIDIA는 오라클 클라우드 인프라를 시작으로 DGX Cloud 인프라를 호스팅하기 위해 선도적인 클라우드 서비스 제공업체와 협력하고 있는데요. 마이크로소프트 애저는 다음 분기에 DGX Cloud 호스팅을 시작할 예정이며, 서비스는 곧 구글 클라우드 등으로 확장될 예정입니다.
젠슨 황은 이 파트너십이 NVIDIA의 생태계를 클라우드 서비스 제공업체에 제공하는 동시에 NVIDIA의 규모와 범위를 확대할 것이라고 말했습니다. 기업은 DGX Cloud 클러스터를 월 단위로 임대할 수 있으므로, 대규모 멀티 노드 훈련 워크로드의 개발을 빠르고 쉽게 확장할 수 있습니다.