엔비디아 A100 GPU 구글 클라우드 탑재

전 세대 대비 20배 향상된 성능으로 AI 워크로드 속도를 획기적으로 가속화하며 출시 직후 클라우드에 채택되다
by NVIDIA Korea
0708 블로그

엔비디아 A100 텐서(Tensor) 코어 GPU가 구글 클라우드에 적용됩니다.

출시 한 달 만에 구글 컴퓨트 엔진(Google Compute Engine)에 탑재된 것인데요. 이는 역대 엔비디아 GPU 중 가장 빠르게 클라우드에 채택된 사례입니다.

구글은 최근 A100이 탑재된 엑셀레이터-옵티마이즈드 VM(Accelerator-Optimized VM)(A2) 인스턴스를 새롭게 공개하면서 새로운 엔비디아 GPU를 제공하는 최초의 클라우드 서비스 제공업체가 됐습니다.

엔비디아 암페어(NVIDIA Ampere) 아키텍처를 기반으로 구축된 A100를 통해 엔비디아는 가장 비약적인 발전을 이뤄냈습니다. A100는 이전 세대보다 훈련 및 추론 컴퓨팅 성능을 20배 향상시켜 인공지능(AI)의 원동력인 워크로드 속도를 획기적으로 개선시킵니다.

구글 클라우드(Google Cloud)의 제품관리 담당 디렉터인 마니쉬 사이나니(Manish Sainani)는 “구글 클라우드 고객은 AI와 과학 컴퓨팅 워크로드에 대한 혁신을 이끌어줄 하드웨어와 소프트웨어 서비스를 원하고 있습니다. 이번에 새로 출시한 A2 VM 제품군을 통해 엔비디아 A100 GPU를 탑재한 최초의 클라우드 서비스 제공업체가 돼 기쁩니다. 앞으로 고객들이 새로운 성능을 어떻게 활용할 지 기대됩니다”라고 소감을 밝혔습니다.

클라우드 데이터센터에서 A100은 AI 교육 및 추론, 데이터 분석, 과학 컴퓨팅, 유전학, 엣지 비디오 분석, 5G 서비스 등을 포함한 광범위한 컴퓨팅 집약적 애플리케이션을 구동합니다.

빠르게 성장하고 있는 핵심 산업 기업들은 구글 컴퓨트 엔진에 탑재된 A100의 획기적인 성능으로 혁신을 가속화할 수 있습니다. AI 확장과 과학 컴퓨팅에서 추론 애플리케이션 확장, 실시간 대화형 AI 실행에 이르기까지, A100은 클라우드에서 실행되는 복잡하고 예측 불가능한 모든 워크로드를 가속화합니다.

곧 배포예정인 엔비디아 쿠다(CUDA) 11을 통해 개발자들은 텐서 코어, 혼합정밀 모드, 멀티 인스턴스 GPU, 고급 메모리 관리, 표준 C++/포트란(Fortran) 병렬언어 구조를 포함한 엔비디아 A100 GPU의 새로운 성능을 활용할 수 있습니다.

클라우드 상의 모든 규모의 워크로드를 위한 A100의 획기적 성능

구글 컴퓨트 엔진은 대규모의 까다로운 워크로드를 위해 고객들에게 16개의 A100 GPU와 함께 a2-메가GPU-16g(a2-megagpu-16g) 인스턴스를 통해 총 GPU 메모리 640GB와 시스템 메모리 1.3TB를 제공합니다. 이는 모두 최대 1초당 9.6TB의 대역폭을 갖춘 NV스위치(NVSwitch)로 연결됩니다.

구글 컴퓨트 엔진은 워크로드가 적은 사용자를 위해 특정 애플리케이션 요구사항에 맞는 적은 구성의 A2 VM을 제공합니다. 구글 클라우드는 구글 쿠버네티스 엔진(Google Kubernetes Engine), 클라우드 AI 플랫폼과 기타 구글 클라우드 서비스에 곧 엔비디아 A100를 추가 지원한다고 밝혔습니다. 신규 A2 VM 제품군과 액세스 가입 방법 등에 대한 자세한 사항은 구글 클라우드 블로그에서 확인할 수 있습니다.