2D에서 3D 모델로, ‘GANverse3D 애플리케이션’ 공개!

by NVIDIA Korea

NVIDIA AI 리서치 랩(AI Research Lab)에서 개발한 GANverse3D 애플리케이션이 공개됐습니다. 이는 평면 이미지를 사실적인 3D 모델로 변환해 가상 환경에서 시각화와 제어를 가능하게 하는데요.

건축가, 크리에이터, 게임 개발자, 디자이너가 GANverse3D를 활용하면 3D 모델링 분야에 전문성이 없거나 렌더링에 투자할 대규모 예산이 없어도 자신의 실물 모형(mockups)에 새로운 오브젝트를 손쉽게 추가할 수 있습니다. 이는 특정 자동차 사진 한 장만으로, 사실적인 전조등, 후미등, 점멸등까지 완비한 3D 모델을 구축해 가상의 장면에서 주행하게 만들 수 있죠.

NVIDIA AI 리서치 랩의 연구자들은 훈련용 데이터세트의 마련에 생성적 적대 신경망(GAN)을 적용해 마치 사진사가 주차된 차량 주변을 걸으며 서로 다른 각도에서 사진을 찍듯, 동일한 오브젝트를 다양한 각도에서 묘사하는 이미지들을 합성했습니다. 이를 통해 얻은 다시점 이미지들을 2D 이미지에서 3D 메시 모델을 추론하는 프로세스인 역 그래픽(inversz용 렌더링 프레임워크에 연결했습니다.

다시점 이미지로 훈련을 완료한 GANverse3D는 단일 2D 이미지만으로 3D 메시 모델을 구현할 수 있는데요. 이는 오브젝트를 커스터마이징하고 배경을 교체할 수 있는 3D 뉴럴 렌더러와 함께 사용할 수 있습니다.

GANverse3D를 NVIDIA Omniverse 플랫폼의 확장 기능으로 가져와 NVIDIA RTX GPU로 실행하면 모든 형태의 2D 이미지를 3D로 재현할 수 있는데요. 일례로 1980년대에 큰 인기를 끌었던 TV 드라마 ‘전격 Z작전’에서 범죄에 맞서 싸우며 대중의 사랑을 한 몸에 받았던 자동차 키트(KITT)도 재현이 가능하죠.

기존의 역 그래픽용 모델들은 훈련 데이터로 3D 형상에 의존해 왔습니다. 이번 프로젝트의 책임 저자를 맡은 웬젱 첸(Wenzheng Chen) NVIDIA 연구원은 “3D 에셋의 도움을 받는 대신 GAN 모델을 효율적인 데이터 생성기로 전환해 웹 상의 모든 2D 이미지로 3D 오브젝트를 만들 수 있게 됐습니다”라고 설명했죠.

준 가오(Jun Gao) NVIDIA 연구원은 “일반적인 파이프라인 대신 합성 데이터를 활용한 실제 이미지로 훈련을 진행하여 AI 모델이 실제 애플리케이션들과 만났을 때 한층 뛰어난 일반화 능력을 보여줍니다”라고 말했습니다.

GANverse3D 연구 내용은 5월에 개최될 인공지능학회 표현학습국제학회(ICLR)와 6월에 열릴 패턴인식 학술대회(CVPR)에서 소개될 예정입니다.

평면적 타이어에서 질주하는 ‘키트’로

게이밍, 건축, 디자인 분야의 크리에이터들은 최종 제품의 제작에 앞서 시뮬레이션과 협업을 위한 플랫폼인 NVIDIA Omniverse와 같은 가상 환경을 활용해 새로운 아이디어를 검증하고 프로토타입을 시각화합니다. 이 과정에서 Omniverse Connector를 사용해 자신이 선호하는 3D 애플리케이션을 복잡한 가상 세계의 시뮬레이션과 실시간 레이 트레이싱을 수행할 수 있죠.

그러나, 스케치한 오브젝트의 3D 모델을 생성할 시간적 여유나 리소스가 없는 경우가 존재합니다. 전시장 한 개 분량의 자동차들, 거리 한 개 분량의 건물들을 렌더링하는 데 필요한 다시점 이미지들을 일일이 캡처하는 데는 비용이 많이 소요됩니다.

GANverse3D 애플리케이션을 사용하면 자동차와 건물이 포함된 일반 이미지를 3D 모델로 변환할 수 있으며, 동물을 비롯한 무엇이든 표현이 가능합니다. Omniverse에서 해당 3D 모델들의 커스터마이징과 애니메이션 작업을 진행할 수 있죠

드라마 속 키트의 재현을 위해 연구자들은 훈련을 마친 모델에 키트의 이미지를 투입했습니다. 3D 텍스처를 비롯해 바퀴와 전조등 같은 기타 부위의 예측은 GANverse3D에서 진행했죠. 다음으로 NVIDIA Omniverse KitNVIDIA PhysX을 사용해 예측 요소를 고품질 자료로 변환하여 보다 사실적 외관과 느낌을 부여했으며, 이를 역동적인 주행 시퀀스 안에 다른 차량들과 함께 배치했습니다.

장 프랑수아 라플레체(Jean-Francois Lafleche) NVIDIA 딥 러닝 엔지니어는 “Omniverse는 크리에이터와 사용자들을 흥미진진한 최첨단 연구와 직접 연결하는 역할을 합니다. GANverse3D가 Omniverse의 확장 기능으로 제공되면 게임 개발, 도시 계획, 새로운 머신 러닝 모델의 훈련 등에서 보다 다채로운 가상 세계를 창조하는 데 도움이 될 것입니다”라고 말했죠. 

차원을 바꾸는 GAN의 위력

동일한 오브젝트를 서로 다른 각도에서 캡처하는 데이터세트는 현실적으로 드물죠. 2D를 3D로 변환하는 AI 툴의 대부분은 셰이프넷과 같은 합성 3D 데이터세트를 사용해 훈련됩니다.

NVIDIA 연구자들은 웹상에서 공개적으로 얻을 수 있는 자동차 이미지와 같은 실세계 데이터에서 다시점 이미지를 얻기 위해 GAN 모델을 활용했습니다. 이는 GAN 모델의 신경망 레이어를 조작해 데이터 생성기로 변환시키는 방식이죠.

연구팀은 해당 신경망의 처음 레이어 4개를 켜고, 나머지 12개를 동결하면 GAN이 동일한 오브젝트를 서로 다른 각도에서 바라본 이미지를 내놓는다는 사실을 발견했는데요. 처음 레이어 4개를 동결하고 나머지 레이어 12개에 변화를 주면서 동일한 각도에서 본 서로 다른 이미지를 생성할 수 있었습니다. 특정 고도나 카메라와의 거리를 나타내는 차량들을 이용해 표준 각도를 수동으로 할당한 결과 개별 2D 이미지들로 다시점 데이터세트를 신속히 생성할 수 있죠.

GAN으로 생성한 55,000개의 자동차 이미지를 활용해 훈련을 마친 최종 모델은 파스칼3D 데이터세트로 훈련한 역 그래픽 네트워크보다 향상된 성능을 보였는데요.

여기에서 ICLR에 제출된 논문 전문을 확인해 볼 수 있습니다. NVIDIA 리서치 팀은 200명 이상의 다국적 과학적으로 구성돼 있으며, AI, 컴퓨터 비전, 자율주행 자동차, 로보틱스, 그래픽 분야를 중점적으로 연구하고 있습니다.