실시간 대화형 AI 소프트웨어를 아십니까? 엔비디아 ‘Tensor RT’를 만나보세요.

엔비디아 텐서RT 7은 컴파일러, 인간과 AI의 스마트한 상호작용을 위한 실시간 추론을 제공합니다
by NVIDIA Korea
Tensor RT_TN

실시간 대화형 AI를 지원하는 추론 소프트웨어의 최신 버전인 엔비디아 텐서RT 7(NVIDIA TensorRT 7)가 공개됐습니다. 이는 전세계 개발자들이 대화형 AI 애플리케이션을 제공하는데 사용되어, 그간 인간과 AI간 상호작용에 걸림돌이 됐던 추론 레이턴시(지연시간)를 크게 개선할 것으로 기대됩니다.

엔비디아 텐서RT 7은 엔비디아의 7세대 추론 소프트웨어 개발 키트로, 보다 스마트한 인간과 AI간 상호작용을 가능하게 해, 음성 에이전트(voice agent), 챗봇, 추천 엔진 등의 애플리케이션을 실시간으로 구현할 수 있게 됐습니다.

미국 시장 조사기관 주니퍼 리서치(Juniper Research)에 따르면, 전세계 디바이스에서 약 32억 5,000만 개의 디지털 음성 비서가 사용되고 있는 것으로 추정되는데요. 2023년까지 그 숫자가 세계 총 인구 수를 뛰어 넘는 80억 개까지 증가할 것으로 예상됩니다.

텐서RT 7은 AI 음성 애플리케이션을 구현하는데 필요한 트랜스포머(transformer) 기반 RNN(Recurrent Neural Network, 순환신경망)을 자동으로 최적화하고 가속화하도록 설계된 최신 딥 러닝 컴파일러를 제공합니다. 이를 통해, 대화형 AI의 구성요소가 CPU에서 실행될 때보다 10배 이상 빨라지죠. 동시에, 지연시간은 실시간 상호작용에 필요한 수준인 300 밀리 초 임계값 미만으로 단축됩니다.

엔비디아 젠슨 황(Jensen Huang) CEO는 GTC 차이나 기조연설에서 “우리는 기계가 인간의 언어를 실시간으로 이해할 수 있게 된 새로운 AI 시대에 들어섰습니다. 텐서RT 7은 전 세계 개발자들에 인간과 AI간의 보다 자연스러운 상호작용을 가능하게 하는 빠르고 스마트한 대화형 AI 서비스를 구축 및 배포할 수 있는 툴을 제공합니다”라고 말했습니다.

세계 유수의 혁신적인 기업들은 이미 엔비디아의 AI 가속화 기술을 활용하고 있습니다. 세계에서 가장 많이 쓰이는 모바일 애플리케이션인 위챗(WeChat)에 서치 서비스를 제공하는 소구(Sogou)도 그 중 하나이죠.

소구의 양 홍타오(Yang Hongtao) CTO 는 “소구는 음성, 이미지, 번역, 대화, Q&A등의 고품질 AI 서비스를 날마다 수억 명의 사용자들에게 제공하고 있습니다. 엔비디아 텐서RT 추론 플랫폼을 활용해 온라인 서비스에 실시간으로 대응할 수 있게 됐습니다. 이와 같은 선도적인 AI 성능들을 통해 소구의 사용자 경험을 크게 향상시킬 수 있었습니다”라고 말했습니다.

순환신경망의 중요성 증대

텐서RT 7은 RNN이라는 순환 루프 구조(recurrent loop structures)를 사용하는 시계열(time-series) 시퀀스 데이터 시나리오(sequence-data scenarios)를 예측하는 용도로 활용되는 AI 모델 세계가 더 빠르게 확장될 수 있도록 지원합니다. RNN은 대화형 AI 음성 네트워크 외에도 차량이나 위성의 도착 시간 계획, 전자 의료기록에 기입될 상황 예측, 금융자산 예측, 사기행위 감지 등의 목적에도 사용될 수 있습니다.

RNN 구성과 기능이 결합되는 상황이 폭발적으로 증가하면서, 실시간 성능 기준을 충족하는 생산 코드(production code)를 빠르게 배포해야 하는 상황이 발생하게 됐습니다. 이로 인해 업무를 진행하는데 수개월이 지연되고 개발자들은 코드 최적화 작업을 수동으로 해야 했죠. 그 결과, 대화형 AI 실행능력을 갖춘 소수 업체들만 대화형 AI를 구현할 수 있었습니다.

텐서RT의 최신 딥 러닝 컴파일러를 통해, 전세계 개발자들은 맞춤형 자동 음성인식 네트워크와 텍스트-투-스피치(text-to-speech)용 웨이브RNN(WaveRNN)과 타코트론 2(Tacotron 2) 등의 네트워크를 자동 최적화할 수 있는 능력을 갖추게 됐고, 이를 통해 최고 수준의 성능을 최저 지연시간에 제공할 수 있게 됐습니다.

이 최신 컴파일러는 BERT와 같은 자연어 처리용 트랜스포머를 최적화하는 기능도 제공합니다.

엣지에서 클라우드로 추론 기능 가속화

텐서RT 7은 하이퍼스케일 데이터 센터, 내장형 또는 자동차용 GPU 플랫폼을 통해 훈련된 추론 신경망을 빠르게 최적화, 검증, 배포할 수 있습니다.

텐서RT를 비롯한 여러 엔비디아 쿠다-X AI 라이브러리(NVIDIA CUDA-X AIlibraries), 엔비디아 GPU 등이 포함된 엔비디아 추론 플랫폼은 이미지 분류, 사기 탐지, 분할, 오브젝트 탐지, 추천 엔진 등 저지연, 고처리량 추론 기능을 대화형 AI 이외의 애플리케이션에서도 구현합니다. 엔비디아 추론 플랫폼은 알리바바(Alibaba), 아메리칸 익스프레스(American Express), 바이두(Baidu), 페이팔(PayPal), 핀터레스트(Pinterest), 스냅(Snap), 텐센트(Tencent), 트위터(Twitter) 등 세계적인 선도 엔터프라이즈와소비자 기술 기업들 사이에서 널리 사용되고 있습니다.

제품 구매 정보

텐서RT 7은 텐서RT 홈페이지를 통해 엔비디아 개발자 프로그램 회원들에게 개발과 배포 목적으로 무료로 제공될 예정입니다. 또 텐서RT 깃허브(GitHub) 저장소에서 최신 버전의 오픈소스 플러그인, 파서(parser), 샘플 등을 다운로드 할 수 있습니다.