NVIDIA는 마이크로소프트 빌드(Microsoft Build) 2024에서 새로운 AI 성능 최적화와 윈도우(Windows)용 통합을 발표했습니다. 이는 NVIDIA GeForce RTX AI PC와 NVIDIA RTX 워크스테이션에서 최고의 성능을 제공할 수 있도록 지원합니다.
거대 언어 모델(large language models, LLMs)은 생성형 AI에서 가장 흥미로운 새로운 활용 사례를 지원하는데요. 이제 새로운 NVIDIA R555 Game Ready 드라이버를 사용하는 ONNX Runtime(ORT)과 DirectML을 통해 최대 3배 빠르게 실행됩니다. ORT와 DirectML은 윈도우 PC에서 로컬로 AI 모델을 실행하는 데 사용되는 고성능 툴입니다.
WebNN은 웹 개발자들이 AI 모델을 배포할 수 있는 애플리케이션 프로그래밍 인터페이스입니다. 이제 DirectML을 통해 RTX로 가속화돼, 웹 앱에 빠른 AI 기반 기능을 통합할 수 있죠. 또한 파이토치(PyTorch)는 DirectML 실행 백엔드를 지원해 윈도우 개발자들이 윈도우에서 자체적으로 복잡한 AI 모델을 훈련하고 추론할 수 있도록 지원합니다. NVIDIA와 마이크로소프트는 RTX GPU의 성능을 확장하기 위해 협력하고 있습니다.
이러한 발전은 전 세계 1억 대 이상의 RTX AI PC와 워크스테이션에서 500개 이상의 애플리케이션과 게임을 가속화하는 NVIDIA의 세계 선도적인 AI 플랫폼을 기반으로 합니다.
RTX AI PC: 게이머, 크리에이터 그리고 개발자를 위해 향상된 AI
NVIDIA는 2018년에 Tensor 코어를 탑재한 최초의 AI 가속 전용 PC GPU인 GeForce RTX 20 시리즈와 최초로 널리 채택된 윈도우용 AI 모델인 NVIDIA DLSS를 출시했습니다. 최신 GPU는 초당 최대 1,300조 회의 AI 전용 연산 성능을 제공하죠.
앞으로 몇 달 안에 새로운 전력 효율적 시스템 온 칩(systems-on-a-chip, SoC)과 RTX GPU를 탑재한 코파일럿+(Copilot+) PC가 출시될 예정입니다. 게이머, 크리에이터, 마니아, 개발자는 이 PC를 통해 마이크로소프트의 새로운 코파일럿+ 기능과 함께 까다로운 로컬 AI 워크로드를 처리할 수 있는 향상된 성능을 제공받게 되죠.
RTX AI PC를 사용하는 게이머를 위해 NVIDIA DLSS는 프레임 속도를 최대 4배까지 끌어올립니다. 또한 NVIDIA ACE는 AI 기반 대화, 애니메이션, 음성으로 게임 캐릭터에 생동감을 불어넣습니다.
콘텐츠 크리에이터를 위해 RTX는 어도비 프리미어(Adobe Premiere), 블랙매직 디자인 다빈치 리졸브(Blackmagic Design DaVinci Resolve), 블렌더(Blender)와 같은 앱에서 AI 기반 제작 워크플로우를 지원합니다. 이를 통해 지루한 작업을 자동화하고 워크플로우를 간소화할 수 있죠. 3D 노이즈 제거와 가속 렌더링부터 텍스트-이미지 변환과 비디오 생성에 이르기까지, 이러한 툴은 아티스트가 자신의 비전을 현실에 구현할 수 있도록 지원합니다.
게임 모더(modder)를 위해 NVIDIA Omniverse 플랫폼에 구축된 NVIDIA RTX Remix는 클래식 PC 게임의 RTX 리마스터 제작을 위한 AI 가속 툴을 제공합니다. 게임 에셋을 캡처하고, 생성형 AI 툴로 머티리얼(materials)을 개선하며, 풀 레이 트레이싱을 통합하는 것이 그 어느 때보다 쉬워졌습니다.
라이브 스트리머를 위해 NVIDIA Broadcast 앱은 고품질 AI 기반 배경 제거와 노이즈 제거 기능을 제공합니다. NVIDIA RTX Video는 스트리밍 비디오 품질을 향상시키기 위해 AI 기반 업스케일링과 자동 HDR(high-dynamic range)을 제공합니다.
생산성 향상을 통해 RTX GPU 기반 LLM은 AI 어시스턴트와 코파일럿을 더 빠르게 실행하고 여러 요청을 동시에 처리할 수 있습니다.
또한 RTX AI PC를 사용하면 개발자가 NVIDIA의 AI 개발자 툴을 사용해 디바이스에서 직접 AI 모델을 빌드하고 미세 조정할 수 있는데요. 여기에는 NVIDIA AI Workbench, NVIDIA cuDNN, 리눅스(Linux)용 윈도우 서브시스템(Subsystem)의 CUDA가 포함됩니다. 또한 개발자는 RTX 가속 AI 프레임워크와 NVIDIA TensorRT, NVIDIA Maxine, RTX Vidoe와 같은 소프트웨어 개발 키트에 액세스할 수 있습니다.
AI 역량과 성능의 결합은 게이머, 크리에이터와 개발자에게 향상된 경험을 제공합니다.
웹 개발자를 위한 더 빠른 LLM과 새로운 기능
마이크로소프트는 최근 AI 추론을 위한 크로스 플랫폼 라이브러리인 ORT용 생성형 AI 확장 기능을 출시했습니다. 이 확장 기능에는 파이-3(Phi-3), 라마 3(Llama 3), 젬마(Gemma), 미스트랄(Mistral)과 같은 LLM 양자화를 비롯한 최적화 기술이 추가됐죠. ORT는 DirectML을 비롯한 다양한 소프트웨어와 하드웨어 스택을 통해 추론을 위한 다양한 실행 공급자를 지원합니다.
DirectML 백엔드가 포함된 ORT는 광범위한 윈도우 PC 에코시스템에 대한 안정성과 프로덕션급 지원을 통해 윈도우 AI 개발자에게 AI 기능을 빠르게 개발할 수 있는 경로를 제공합니다. ORT용 생성형 AI 확장에 대한 NVIDIA의 최적화로 개발자들은 이전 드라이버에 비해 RTX에서 최대 3배 빠른 성능을 경험할 수 있죠. 현재 R555 Game Ready, Studio, NVIDIA RTX Enterprise 드라이버에서 사용할 수 있습니다.
개발자들은 새로운 R555 드라이버로 RTX 하드웨어의 모든 기능을 활용해 소비자에게 더 나은 AI 경험을 빠르게 제공할 수 있습니다. 여기에는 다음과 같은 내용이 포함됩니다.
- LLM의 INT4 가중치 전용 양자화 처리를 위한 DQ-GEMM 메타커맨드(metacommand) 지원
- 라마 2, 라마 3, 미스트랄과 파이-3 모델에 대한 새로운 RMSNorm 정규화 방법
- 그룹과 다중 쿼리 어텐션 메커니즘(multi-query attention mechanisms), 슬라이딩 윈도우 어텐션(sliding window attention)을 통한 미스트랄 지원
- 인플레이스(In-place) KV 업데이트로 어텐션 성능 향상
- 컨텍스트 단계 성능 향상을 위해 8의 배수가 아닌 Tensor의 GEMM 지원
또한, NVIDIA는 브라우저 내에서 직접 RTX GPU의 강력한 성능을 제공할 수 있도록 WebNN 내에서 AI 워크플로우를 최적화했습니다. WebNN 표준은 웹 앱 개발자들이 Tensor 코어와 같은 온디바이스 AI 가속기로 딥 러닝 모델을 가속화하는 데 도움이 됩니다.
WebNN은 브라우저 내 모델 실행을 위해 DirectML과 자바스크립트(Javascript) 라이브러리인 ORT 웹을 사용합니다. 이제 개발자 프리뷰에서 사용할 수 있으며, 여러 플랫폼에서 AI 애플리케이션에 더 쉽게 액세스할 수 있습니다. 이러한 가속화를 통해 스테이블 디퓨전(Stable Diffusion), SD 터보(SD Turbo), 위스퍼(Whisper)와 같은 인기 모델이 웹GPU(WebGPU)에 비해 최대 4배 빠르게 실행되며 개발자들도 이제 사용할 수 있습니다. 마이크로소프트 빌드 참석자는 5월 23일 목요일 오전 3시(한국시간)에 진행되는 윈도우 PC에서의 RTX AI 활용을 통한 개발 가속화 오프라인 세션에서 RTX를 활용한 개발 방법에 대해 자세히 알아볼 수 있습니다.