생성형 AI는 컴퓨팅을 재정의하여 PC와 워크스테이션에서 AI 모델을 구축, 훈련, 최적화하는 새로운 방법을 제시합니다. 콘텐츠 제작과 거대 및 소형 언어 모델부터 소프트웨어 개발에 이르기까지, AI 기반 PC와 워크스테이션은 워크플로우를 혁신하고 생산성을 향상하고 있습니다.
3월 17일부터 21일까지 산호세 컨벤션 센터에서 열리는 GTC 2025에서는 AI 생태계 전반의 전문가들이 로컬 AI 배포, 모델 최적화, 최첨단 하드웨어 및 소프트웨어를 활용한 AI 워크로드에 대한 인사이트를 공유하며 RTX AI PC와 워크스테이션의 주요 발전 사항을 소개하는 시간을 가질 예정입니다.
RTX에서 개발 및 배포하기
RTX GPU는 가장 까다로운 최신 AI 모델을 실행하는 데 필요한 컴퓨팅 성능을 제공하는 Tensor 코어라는 특수 AI 하드웨어를 탑재하고 있습니다. 이 고성능 GPU는 디지털 휴먼, 챗봇, AI 생성 팟캐스트 등의 구축을 지원할 수 있습니다.
1억 명 이상의 GeForce RTX 및 NVIDIA RTX™ GPU 사용자층을 기반으로, 개발자는 새로운 AI 앱과 기능을 배포할 때 광범위한 잠재 고객을 타깃으로 삼을 수 있습니다. “RTX PC 및 워크스테이션을 위한 디지털 휴먼, 챗봇, AI 생성 팟캐스트 구축하기” 세션에서 NVIDIA의 수석 제품 매니저인 Annamalai Chockalingam은 개발자가 개발을 간소화하고 놀라울 정도로 빠른 AI 기반 애플리케이션을 배포하는 데 사용할 수 있는 엔드투엔드 도구 모음을 소개할 예정입니다.
모델 행동
거대 언어 모델(LLM)은 다양한 사용 사례에 활용될 수 있으며, 코드 작성 또는 일본어를 그리스어로 번역하는 것과 같은 복잡한 작업을 처리하도록 확장될 수 있습니다. 그러나 일반적으로 거대 언어 모델은 광범위한 응용을 위해 광범위한 지식을 기반으로 훈련되므로, 비디오 게임에서 논플레이어 캐릭터의 대화를 생성하는 것과 같은 특정 작업에는 적합하지 않을 수 있습니다. 반면에 소형 언어 모델은 필요와 규모 축소 사이에서 균형을 이루어, 정확도를 유지하면서도 더 많은 장치에서 로컬로 실행될 수 있습니다.
“신중하게 설계하기: 온디바이스에서 실행되는 소형 언어 모델 생성하기” 세션에서 NVIDIA의 수석 엔지니어링 매니저인 Oluwatobi Olabiyi는 개발자와 애호가가 데이터 세트를 생성, 선별, 증류한 후, 해당 데이터 세트로 작업을 수행할 수 있도록 소형 언어 모델을 훈련하는 데 활용할 수 있는 도구와 기법을 소개할 예정입니다.
Windows 워크스테이션에서 AI 성능 극대화하기
Windows 기반 워크스테이션에서 AI 추론 및 모델 실행을 최적화하려면 다양한 하드웨어 구성과 소프트웨어 환경으로 인해 전략적인 소프트웨어 및 하드웨어 튜닝이 필요합니다. “Windows 워크스테이션에서 AI 워크로드 최적화하기: 전략과 모범 사례” 세션에서는 모델 양자화, 추론 파이프라인 개선, 하드웨어 인식 튜닝 등 AI 최적화를 위한 모범 사례를 살펴봅니다.
또한 개발자들이 GPU, CPU, NPU 전반에서 AI 효율성을 극대화하는 데 도움이 되도록, NVIDIA 소프트웨어 엔지니어 팀이 ONNX Runtime, NVIDIA TensorRT, llama.cpp를 위한 하드웨어 인식 최적화에 대해 설명할 예정입니다.
로컬 AI 개발 강화하기
로컬 인프라에서 AI 모델을 구축, 테스트, 배포하면 클라우드 기반 서비스에 대한 연결 없이도 보안과 성능을 보장할 수 있습니다. NVIDIA RTX GPU로 가속화된 Z by HP의 AI 솔루션은 데이터 및 IP에 대한 통제력을 유지하면서 온프레미스에서 AI를 개발하는 데 필요한 도구를 제공합니다.
다음 세션에 참석하여 더 자세한 내용을 알아보세요.
이 세션에서는 NVIDIA RTX GPU 기반의 전문가용 고성능 노트북 및 데스크톱인 Dell Pro Max PC를 소개합니다. 이 강력한 듀오가 어떻게 AI 이니셔티브의 신속한 시작을 지원하고, AI 개발자, 데이터 사이언티스트, 크리에이터, 파워 유저의 혁신 방식을 변화시킬 수 있는지 확인해 보세요.
Z by HP GenAI Lab 및 AI Studio를 통해 온프레미스에서 생성형 AI 개발 및 관찰하기
이 세션은 Z by HP 솔루션이 어떻게 로컬 모델 훈련 및 배포를 단순화하고, NVIDIA NGC 카탈로그의 모델과 Galileo 평가 기술을 활용하여 생성형 AI 프로젝트를 안전하고 효율적으로 개선하는지를 보여줍니다.
이 세션에서는 Z by HP의 GenAI Lab과 AI Studio를 통해 어떻게 온프레미스 LLM 개발을 실현하면서 완전한 데이터 보안과 제어를 유지하는지 살펴봅니다. 이 도구들이 어떻게 실험부터 배포까지의 AI 라이프사이클 전체를 간소화하는 동시에 NVIDIA NGC 카탈로그에서 사용 가능한 모델을 통합하여 협업 및 워크플로우 효율성을 향상하는지 알아보세요.
개발자들은 RTX AI PC와 워크스테이션에서 NVIDIA NIM 마이크로서비스를 사용하여 AI 개발을 시작할 수 있습니다. 최근에 출시된 첫 공개 베타 릴리스에는 Llama 3.1 LLM, 자동 음성 인식(ASR)을 위한 NVIDIA Riva Parakeet, 컴퓨터 비전을 위한 YOLOX가 포함되어 있습니다.
NIM 마이크로서비스는 생성형 AI를 위해 최적화되고 사전 패키징된 모델입니다. PC 개발에 중요한 모달리티를 포괄하며, 쉽게 다운로드하고 업계 표준 애플리케이션 프로그래밍 인터페이스를 통해 간편하게 연결할 수 있습니다.
GTC 2025에 참석하세요.
NVIDIA 창립자이자 CEO인 젠슨 황의 키노트부터 1,000여개의 인사이트있는 세션, 전시물 300여 개, 기술 워크숍, 수많은 특별 네트워킹 이벤트에 이르기까지 GTC는 AI와 그 모든 이점을 집중적으로 조명하는 자리가 될 것입니다.
Facebook, Instagram, TikTok, X에서 NVIDIA AI PC를 팔로우하고 RTX AI PC 뉴스레터를 구독하여 최신 정보를 받아보세요.