AI 애플리케이션 구축에 어려움을 겪고 있나요?

100개 이상의 소프트웨어 제공업체와 협력하여 보다 효과적인 AI 파이프라인 구축을 지원합니다
by NVIDIA Korea

NVIDIA는 100개 이상의 머신 러닝 운영(MLOps) 소프트웨어 제공업체와 협력해 기업의 AI 도입을 촉진합니다. 이번 협력을 통해 기존의 운영 파이프라인과 새로 구축한 파이프라인 모두의 AI 워크플로우 최적화 지원을 위한 광범위한 솔루션을 제공합니다.

AI 애플리케이션의 구축은 난이도가 높은 작업이며, 특히 비즈니스 전반에 이를 적용하기는 매우 어려운데요. 최근 IDC의 조사에 따르면, AI를 도입을 시도한 기업 중 실제로 생산 단계에 진입한 수는 3분의 1 미만에 불과합니다.

애플리케이션 개시 직전에 가서야 AI 운영의 복잡성을 완전히 깨닫는 경우가 적지 않으며, 이처럼 뒤늦게 문제가 발견되면 극복이 불가능하다고 여겨져 배포 자체가 지연되거나 잊혀지는 경우가 많습니다.

이러한 문제를 해소하기 위해 많은 NVIDIA MLOps와 AI 플랫폼 생태계 파트너, DGX-Ready 소프트웨어(Software) 파트너들은 AI를 운영하는 기업의 요구 충족을 목적으로 NVIDIA 가속 인프라, 소프트웨어와 통합되는 솔루션을 구축하고 있습니다. 협력 기업에는 캐노니컬(Canonical), 클리어ML(ClearML), 데이터이쿠(Dataiku), 도미노 데이터 랩(Domino Data Lab), 런.ai(Run:ai), 웨이츠 앤드 바이어시스(Weights & Biases)가 있습니다.

NVIDIA 클라우드 서비스 제공 협력사인 아마존웹서비스(Amazon Web Services)와 구글 클라우드(Google Cloud), 애저(Azure), 오라클 클라우드(Oracle Cloud) 외에도 알리바바 클라우드(Alibaba Cloud) 등 전 세계의 다른 파트너사들도 AI 배포 간소화를 위한 MLOps 솔루션을 제공합니다.

NVIDIA의 MLOps 소프트웨어 파트너사들은 NVIDIA AI Enterprise 소프트웨어 제품군과 병용이 가능하다는 검증과 인증을 거쳤습니다. NVIDIA AI Enterprise는 프로덕션 AI 생성과 가속화를 위한 엔드 투 엔드(end-to-end) 플랫폼을 제공하며, 이 제품군과 NVIDIA MLOps 파트너사의 툴을 함께 사용하면 AI를 성공적으로 개발, 배포할 수 있습니다.

엔터프라이즈 AI의 시작과 실행을 돕는 NVIDIA MLOps와 AI 플랫폼 파트너사들은 다음과 같습니다.

  • 캐노니컬: 대규모 AI 배포 가속화와 AI 개발을 위한 오픈 소스 접근성 강화를 목표로 합니다. 캐노니컬의 참드 쿠브플로우(Charmed Kubeflow)는 싱글 노드와 멀티 노드 배포 모두에서 NVIDIA DGX 시스템DGX-Ready 소프트웨어 프로그램 인증을 받았습니다. 머신 러닝 워크플로우를 자동화하도록 설계된 참드 쿠브플로우는 모델을 생산으로 옮길 수 있는 안정적인 애플리케이션 레이어를 생성합니다.
  • 클리어ML: 실험의 관리, 조정에서부터 머신 러닝 프로덕션의 증가, 성능 강화에 이르기까지 머신 러닝의 연속성을 보장할 수 있게 통합된 오픈 소스 플랫폼을 제공하며, 전세계 1,300여 기업의 신뢰를 받고 있습니다. 클리어ML을 활용하면 개인화된 컴퓨팅 패브릭에서 작업을 조정, 계획할 수 있습니다. 온프레미스와 클라우드 환경 모두에서 인프라 사용의 가시성을 높이는 한편, 컴퓨팅, 하드웨어, 리소스 비용을 줄여 지출과 성능을 최적화합니다. 클리어ML의 MLOps 플랫폼은 NVIDIA AI Enterprise의 실행 인증을 받았으며, 워크플로우 전반에서 보다 효율적으로 기능해 GPU 성능을 크게 최적화합니다.
  • 데이터이쿠: 에브리데이 AI(Everyday AI)의 플랫폼인 데이터이쿠는 데이터와 도메인 전문가들이 일상 운영에 AI를 도입할 수 있게 협력하도록 지원합니다. NVIDIA DGX-Ready 소프트웨어 프로그램의 인증을 받았으며, 이를 통해 기업들은 데이터이쿠의 MLOps 기능을 NVIDIA DGX AI 슈퍼컴퓨터와 함께 병용할 수 있습니다.
  • 도미노 데이터 랩: 세계 최고의 기업들이 클라우드와 온프레미스 환경의 컴퓨팅 클러스터 일체에서 데이터 사이언스와 머신 러닝 워크로드를 실행할 수 있는 단일 창구를 제공합니다. 이로써 이제 대규모 데이터 사이언스를 빠르고 쉽게 실행할 수 있는 새로운 완전 관리형 MLOps 서비스형 플랫폼(platform-as-a-service)인 도미노 클라우드(Domino Cloud)를 사용할 수 있게 됐죠. 지난해에 NVIDIA AI Enterprise 실행을 인증받은 도미노 데이터 랩의 플랫폼은 배포에 수반되는 위험을 줄이는 한편, NVIDIA AI와의 안정적인 고성능 통합을 보장합니다.
  • 런:ai: 자사의 AI 컴퓨팅 플랫폼인 아틀라스(Atlas)를 통해 엔터프라이즈 MLOps와 AI 인프라 스택의 기반 레이어로 기능합니다. 아틀라스의 리소스 관리 자동화 기능은 서로 다른 MLOps 플랫폼이나 아틀라스에서 실행되는 툴 사이에서 리소스를 적절히 조정해주죠. NVIDIA AI Enterprise 제공 인증을 받은 런:ai는 NVIDIA Triton Inference Server도 완전히 통합해 AI 기반 환경에서 GPU의 활용도와 가치를 극대화합니다.
  • 웨이츠 앤드 바이어시스(W&B): 머신러닝 모델의 품질 향상과 개발 가속화를 지원합니다. 짧은 코드 몇 줄만으로 모델을 즉시 디버깅, 비교, 복제하면서 팀원들과 협업할 수 있죠. W&B는 전세계의 선도적 기업과 연구기관에 소속된 50만 명 이상의 머신러닝 개발자가 신뢰하는 기업이기도 합니다. 이제 NVIDIA AI Enterprise 제공을 인증받고 컴퓨터 비전과 자연어 처리, 생성형 AI 전반에서 딥 러닝 워크로드의 가속화를 꾀하고 있습니다.

NVIDIA 클라우드 서비스 제공 파트너사들은 NVIDIA 가속 컴퓨팅과 소프트웨어를 제공하는 자사 플랫폼에 MLOps를 통합해 데이터 처리, 랭글링(wrangling), 훈련, 추론을 진행합니다.

  • 아마존웹서비스: MLOps를 위한 아마존 세이지메이커(Amazon SageMaker)는 NVIDIA 가속 컴퓨팅을 사용해 머신 러닝 라이프사이클 전반의 프로세스 자동화와 표준화를 지원합니다. 이는 머신 러닝 모델의 훈련, 테스트, 문제 해결, 배포, 관리 측면의 생산성 향상으로 이어지죠.
  • 구글 클라우드: 버텍스AI(Vertex AI)는 완전 관리형 머신 러닝 플랫폼으로 광범위한 수준의 목적 기반 기능들을 결합해 머신 러닝 배포를 가속합니다. 버텍스 AI의 엔드 투 엔드 MLOps기능은 다양한 종류의 AI 워크로드에 최적화된 NVIDIA GPU를 활용해 규모에 맞는 머신 러닝의 훈련과 조정, 배포와 관리를 지원합니다. 버텍스 AI는 또한 NVIDIA Merlin 프레임워크 등의 최첨단 솔루션도 지원해 모델의 성능을 극대화하고 규모에 따른 배포를 간소화합니다. 구글 클라우드와 NVIDIA는 협업을 통해 Triton Inference Server를 버텍스 AI 프리딕션(Prediction)의 백엔드로 추가한 바 있습니다. 버텍스 AI 프리딕션은 구글 클라우드의 완전 관리형 모델 서비스 플랫폼입니다.
  • 애저: 애저 머신 러닝 클라우드 플랫폼은 NVIDIA로 가속되며 머신 러닝 모델 개발과 운영(DevOps)를 통합합니다. 통합과 전송, 배포에서의 연속성 등 데브Ops의 원칙과 관행을 머신 러닝 프로세스에 적용해 애저 머신 러닝 모델의 실험과 개발, 배포 가속화와 프로덕션을 촉진합니다. 책임 있는 AI(responsible AI) 툴을 내장해 품질 보증을 제공함으로써 머신 러닝 전문가들이 공정하고 설명 가능하며 책임 있는 모델을 개발하도록 돕습니다.
  • 오라클 클라우드:  오라클 클라우드 인프라스트럭처(OCI) AI 서비스는 사전 제작 머신 러닝 모델을 제공하는 서비스들의 컬렉션입니다. 이 사전 제작 모델들은 애플리케이션과 비즈니스 운영에 NVIDIA 가속 AI를 보다 간편히 적용하게 해주죠. 이를 바탕으로 팀들 사이에서 모델과 데이터세트, 데이터 레이블의 재사용이 가능해집니다. OCI AI 서비스를 활용하면 머신 러닝을 애플리케이션에 손쉽게 더하면서도 애플리케이션 개발 속도를 유지할 수 있습니다.
  • 알리바바 클라우드: 알리바바 클라우드 AI 머신 러닝 플랫폼은 낮은 기술 수준을 가진 사용자가 우수한 결과를 낼 수 있는 올인원 머신 러닝 서비스를 제공합니다. NVIDIA로 가속하는 알리바바 클라우드 플랫폼을 바탕으로 머신 러닝 실험을 신속하게 수립하고 배포해 기업의 목표를 달성할 수 있습니다.

NVIDIA MLOps 파트너사와 관련된 내용을 NVIDIA GTC에서 확인할 수 있습니다.

NVIDIA 창립자 겸 CEO 젠슨 황(Jensen Huang)의 GTC 키노트를 영상에서 확인하세요.