엔비디아의 CEO, 젠슨 황이 전하는 인공지능의 현주소 – 인터뷰 (part.1/2)
엔비디아 CEO 젠슨 황 (Jen Hsun Huang)은 스탠퍼드대학교 대학원 전기공학 석사 출신이며
1993년 엔비디아 설립한 후 엔비디아 최고경영자(CEO)의 위치에 있습니다.
엔비디아(NVIDIA)를 이끄는 수장의 위치에 있는 젠슨 황(Jen Hsun Huang) CEO가 미국의 종합경제지 포춘(Fortune)지와 인터뷰를 가졌습니다. 그가 전하는 인공지능의 현재와 미래, 지금부터 살짝 살펴볼까요?
-
질문: 현재 인공지능은 어디까지 발전했나요?
젠슨 황: 2015년은 인공지능(AI)이 본격적으로 상용화된 업적을 이룬 한 해였습니다. 인공지능은 주로 조사 및 연구분야에 이용되었었는데, 상업적인 측면에서는 머신 러닝(machine learning)이라는 이름으로 광고나 웹 검색 및 유사한 분야에 활용되었습니다. 인공지능이 사람이 할 수 없는 일을 하기 시작한 건 사실 몇 년 되지 않았습니다. 그러한 측면에서 2015년은 특히 다양한 분야에 우리가 인공지능의 사용할 수 있다는 것을 확인한 기념비적인 한 해라고 할 수 있습니다.
-
질문: 최근에도 주요한 발전이 있었죠?
젠슨 황: 그렇죠. 특히 ‘딥 러닝(Deep learning)’이라 불리는 분야에서 그렇습니다. 딥 러닝이란 기본적으로 대량의 데이터와 연산을 통해 스스로 학습을 하는 시스템인데요, 자가학습을 통해 오렌지 사진을 보여주면 오렌지가 무엇인지 파악이 가능하며 치와와, 래브라도 리트리버견과 작은 조랑말을 서로 비교한 사진을 보여주더라도 각기 분별이 가능합니다. 2015년에는 마이크로소프트(Microsoft)와 구글(Google)의 딥 러닝 시스템이 최고의 이미지 인식능력을 갖춘 인간을 최초로 앞지르는 괄목할 만한 성과를 거두었죠. 바이두(Baidu)의 딥 러닝 시스템도 언어 인식 테스트 결과 2개 언어에서 사람보다 더 좋은 성적을 거뒀습니다. 또한, 마이크로소프트와 중국과학기술대학은 컴퓨터 네트워크에게 IQ 테스트 방법을 가르쳤는데, 그 결과 대학원생보다 좋은 성적을 내기도 했답니다.
-
질문: 상업적 활용은 어떻게 이루어지고 있나요?
젠슨 황: 구글, 마이크로소프트, 페이스북(Facebook)도 전화기의 음성인식이나 뉴스피드 표시 항목 등 여러 분야에서 인공지능를 활용하고 있습니다. 저희도 자율주행 자동차에 같은 기술을 활용하고 있는데, 이제 사람을 뛰어넘는 인식 능력을 보여주고 있습니다. 사람보다 더 사물을 잘 인식하는 능력을 보여주고 있거든요. 물론 인간의 시각은 다양한 범위를 아우르는 부분에서는 카메라보다 훨씬 뛰어난 능력을 가지고 있지만 카메라에 라이더(Lidar)와 같은 센서와 고역동성 카메라를 장착하면 이 분야에서 인간의 능력을 뛰어넘을 수 있을 것입니다.
엔비디아는 이미지 인식을 포함하여 ‘딥 러닝’이라 불리는 인공지능의 분야에서 큰 가능성을 보이고 있습니다
-
질문: 현재 어디까지 도입된 상황인가요?
젠슨 황: 저도 확실하진 않습니다. 다만 현재 말씀드릴 수 있는 것은 인공지능에 대한 연구는 지난 50년간 진행되어 왔습니다. 그리고 작년에 전환점이 생겼죠. 바로 딥 러닝이라 불리는 굉장히 다루기 쉽고 이해하기 쉬운 인공지능 도구가 개발된 것입니다. 딥 러닝을 이용하여 하나의 단일한 네트워크를 만들고 이를 적용하면 여러 언어와 동물 및 사물을 학습할 수 있습니다. 여러분과 저, 데이터 사이언티스트(Data Sceientist), 엔지니어들도 이 네트워크를 활용할 수 있습니다. 그리고 페이스북과 구글의 엔지니어들도 이 딥 러닝을 컨셉으로 잡아 하나의 도구로 사용하고 있으며 실질적으로도 활용하고 있습니다.
사실 많은 인터넷 기업들이 딥 러닝을 실질적으로 활용하고 있습니다. 저희는 2년 전에 딥 러닝에 관심을 가지고 있는 100개의 기업과 이 주제에 대해 이야기를 나눈 적이 있었는데 올해에는 3천 5백개의 기업에게 도움을 제공하고 있습니다. 이 기업들의 전문 분야는 의료 이미지, 금융 서비스, 광고, 에너지 채취, 자동차 등인데요, 수치상으로는 2년 만에 35배의 성장률을 보여주었죠.
저희가 이 분야에서 성공적인 결과를 가져올 수 있겠구나하고 깨달았던 적이 있습니다. 인공지능이 개와 고양이를 구별하고, 할머니와 할아버지, 어린이를 구별하게 만들기 위해 엄청난 양의 프로그래밍을 시행해야 했습니다. 생각해 보세요. 얼마나 많은 코드가 필요합니까? 또한 얼마나 많은 상황을 인식하고 있어야 하겠습니까? 이 트럭은 그냥 트럭이 아니고 앰뷸런스이며 저 버스는 그냥 단순한 버스가 아니라 어린 아이들이 승차하고 있기 때문에 조심해야 하는 스쿨버스입니다. 이런 각기 상황들을 어떻게 모두 구별하여 인식하게 만들 수 있을까요? 어려운 일이였지만 시도해 보았습니다. 시작점은 ADAS(Advanced driver assistance system, 운전자 안전 지원 시스템)인데요, ADAS의 단계에서 무인주행으로 넘어간다는 것은 인간의 뇌 속에 마이크로프로세서(microprocessor)를 다는 것과 약간 비슷하다고 할 수 있습니다. 사실 마이크로프로세서가 인간의 뇌에 도달하는 방식은 잘 모르겠지만 예를 들면 그렇답니다.
-
질문: 앞선 말씀은 엔비디아에게 어떤 의미가 있나요?
젠슨 황: GPU를 판매하는 것이라고 말씀드릴 수 있습니다. 데이터 센터는 저희에게 가장 큰 시장입니다. 각 센터는 인공지능이 운영하게 됩니다. 현재는 약 1천 만 개의 CPU 노드와 서버가 클라우드를 각각 구동하고 있습니다. 대량의 데이터를 처리하고 최종적으로 사용자에게 맞춤화하여 제공해야 하는 기업이라면 모두 클라우드를 사용합니다. 사용자마다 다른 서비스를 제공해야 하고, 수십 억 명의 사용자가 존재한다면 인공지능을 활용하지 않고서는 충분히 우수한 추천 서비스를 제공할 수 없습니다. 따라서 뉴스, 정보, 제품, 음악 등에 대한 인식 기능이 필요하다면 인공지능를 필히 사용해야 한다고 단언코 말씀 드릴 수 있습니다.
엔비디아의 CEO가 전하는 메시지, 어떠셨나요? 엔비디아 젠슨 황 인터뷰 part. 2/2는 다음 포스팅에서 이어질 예정입니다. 더 알찬 질문과 내용으로 돌아올테니 많은 기대 부탁드려요~^^