NVIDIA의 양자 컴퓨팅이란 무엇인가?

양자 컴퓨터는 여전히 개발 초기 단계에 머물러 있습니다. 하지만, 캘리포니아공과대학이 NVIDIA cuQuantum SDK를 활용해 최첨단 양자 회로 시뮬레이터를 진행하고 샘플을 생성했습니다. 진일보한 성능과 사용상의 편리함을 겸비한 NVIDIA의 양자 컴퓨팅을 소개합니다
by NVIDIA Korea

Apple의 스티브 잡스(Steve Jobs)가 주머니에 넣고 다니는 컴퓨터를 공개하기 27년 전, 물리학자 폴 베니오프(Paul Benioff)는 작은 공간에 들어가는 크기로도 훨씬 강력한 성능을 자랑하는 시스템이 이론상으로 가능함을 보여주는 연구를 발표했는데요. 바로 양자 컴퓨터(quantum computer)입니다.

양자 컴퓨터는 폴 베니오프가 1980년에 기술한 아원자 물리학(subatomic physics)을 활용한다는 의미로 오늘날에도 활발히 연구되고 있습니다. 그 일환으로 컴퓨팅 분야에서는 PC를 주판만큼이나 생소한 존재로 만들지도 모를 대규모 혁신을 모색하는 중이죠.

노벨 물리학상 수상자로 강의를 통해 물리학의 대중화를 이끈 리처드 파인만(Richard Feynman)은 양자 현상의 별난 특성을 전통적 의미의 컴퓨터보다 효과적으로 시뮬레이션할 수 있는 시스템의 개념을 소개하여 해당 분야의 정립에 기여했습니다.

양자 컴퓨팅은 무엇인가?

양자 컴퓨팅은 아원자 입자의 물리학을 활용해 정교한 병렬 계산을 수행하는 방법으로, 오늘날 컴퓨터 시스템에서 사용되는 단순한 형태의 트랜지스터를 대신합니다.

양자 컴퓨터는 계산에 큐비트(qubits)를 사용하는데요. 큐비트는 연산의 단위로 1, 0, 또는 그 사이의 값으로 존재할 수 있죠. 반면 전통적 컴퓨터의 비트는 1 또는 0의 값만 가능합니다. 중간 상태에 머물 수 있는 큐비트의 능력을 ‘중첩(superposition)’이라고 부르는데, 이 특성이 연산 방정식에서 발휘하는 강력한 힘 덕분에 일부 계산에서는 양자 컴퓨터가 우월한 위치를 점하게 됩니다.

양자 컴퓨터의 기본 원리는?

양자 컴퓨터는 전통적 컴퓨터가 완료할 수 없거나, 완료까지 오랜 시간이 걸릴 연산을 수행할 수 있습니다.

일례로 오늘날의 컴퓨터는 8비트를 사용해 0과 225 사이의 숫자 하나를 나타냅니다. 반면 양자 컴퓨터는 중첩과 같은 특성 덕분에 8큐비트를 사용해 0과 255 사이의 모든 숫자를 동시에 나타낼 수 있죠.

이는 컴퓨팅의 병렬화와 유사합니다. 모든 가능성을 순차적으로 계산하는 대신 한 번에 처리해 엄청난 가속을 달성하죠.

따라서 전통적 컴퓨터가 거대한 정수의 인수분해를 한 번에 한 개씩 장시간에 걸쳐 진행하는 사이 양자 컴퓨터는 단 한 번의 과정으로 결과를 도출할 수 있습니다.

다시 말해 양자 컴퓨터는 암호기법(cryptography)처럼 오늘날의 기술로는 불가능할 정도로 거대한 수의 인수분해에 기반하는 분야들을 재편할 수 있습니다.

조그마한 시뮬레이션의 거대한 역할

이는 시작에 불과합니다. 일각에서는 양자 컴퓨터가 화학과 재료과학을 비롯하여 미시적 대상들의 역학을 수반하는 모든 분야에서 시뮬레이션의 걸림돌로 작용하는 한계들을 격파할 것이라고 믿습니다.

또한 현재의 최소형 트랜지스터에서 목격되기 시작한 양자 효과들을 엔지니어들이 정교하게 시뮬레이션할 수 있도록 반도체의 수명 연장에 기여할 수도 있죠.

실제로 전문가들은 양자 컴퓨터가 궁극적으로는 전통적 컴퓨터의 대체재가 아니라 보완재가 되리라고 봅니다. 오늘날의 컴퓨터를 GPU가 가속하듯 양자 컴퓨터 또한 액셀러레이터로 사용되리라는 예측도 있습니다.

양자 컴퓨터의 작동 원리는?

그렇지만 동네 전자제품 매장의 할인 코너에서 부품들을 긁어와 PC를 조립하듯 양자 컴퓨터를 구축할 수 있으리라는 기대는 하지 않는 게 좋은데요.

현재 운영 중인 양자 컴퓨팅 시스템은 소수이며, 절대 영도(absolute zero)에 가까운 극저온 환경을 만들어주는 냉각 장치가 필요한 것이 보통입니다. 시스템의 기반이 될 취약한 양자 상태를 다스릴 이른바 컴퓨팅의 북극(computing arctic)이 필요한 셈이죠.

특정 프로토타입의 경우 두 개의 레이저를 쏴 그 사이에서 원자가 들뜬 상태를 유지할 수 있어야 하나의 큐비트가 생성됩니다. 이는 양자 컴퓨터의 구축상 어려움을 보여주는 사례로, 개인의 작업실에서는 달성이 쉽지 않습니다.

양자 컴퓨팅에서 ‘얽힘’을 생성하기까지도 굉장한 노력이 필요합니다. 얽힘은 단일 양자 상태에 두 개 이상의 큐비트가 존재하는 것으로 때로는 폭이 1밀리미터밖에 되지 않는 전자파로만 측정되기도 하죠.

머리카락 굵기 정도의 이 전자파에 과도한 에너지가 실릴 경우 큐비트의 얽힘, 중첩, 또는 둘 모두 손실을 초래할 수 있습니다. 바로 결잃음(decoherence)이라고 합니다. 이 노이즈 상태는 고전 컴퓨팅에서 사망을 의미하는 블루스크린과도 같습니다.

현재 양자 컴퓨팅은 어디까지 왔나?

오늘날 초기 버전의 양자 컴퓨터를 운영 중인 기업으로 알리바바(Alibaba), 구글(Google), 허니웰(Honeywell), IBM, 아이온큐(IonQ), 제너두(Xanadu) 등이 있습니다.

현재 이들이 제공하는 큐비트는 수십 여개 수준입니다. 그러나 큐비트는 노이즈의 가능성을 안고 있기 때문에 때로는 신뢰성이 떨어지죠. 실세계의 문제들을 안정적으로 처리하기 위해서는 수만 혹은 수십만 개의 큐비트가 필요합니다.

전문가들은 양자 컴퓨터가 진정한 의미의 유용성을 발휘하게 될 고충실도의 시대에 진입하기까지 20년은 걸릴 것으로 내다보고 있습니다.

설명: 양자 컴퓨터의 상용화 노력이 서서히 진행되고 있다. (출처: ISSCC 2017 발표: 리에븐 반델시펜(Lieven Vandersypen))

일명 양자 컴퓨팅 우위의 시대(전통적 컴퓨터가 실행할 수 없는 태스크를 양자 컴퓨터가 대신하는 시대)가 언제 도래할 것인가에 대해서는 업계에서도 논쟁이 진행 중입니다.

오늘날 양자회로 시뮬레이션의 가속화

한 가지 희소식은 AI와 머신 러닝 부문이 GPU 등의 액셀러레이터에 많은 관심을 기울이면서 큐비트 연산이 투입될 다양한 작업들의 진행이 가능해졌다는 점입니다.

이에 따라 전통적 컴퓨터들은 현재의 GPU로 양자 시뮬레이션을 호스팅하는 방법의 모색에 돌입했습니다. NVIDIA는 자체 AI 슈퍼컴퓨터인 Selene에서 최첨단 양자 시뮬레이션을 구동한 바 있죠.

NVIDIA는 GTC 2021 키노트에서 GPU상의 양자 회로 시뮬레이션을 가속화하는 cuQuantum SDK를 공개했습니다. 초기 연구에 따르면 cuQuantum은 막대한 수준의 가속화를 제공할 수 있을 것으로 예상됩니다.

cuQuantum SDK는 애그노스틱(agnostic) 방식을 취하며, 사용자가 자신의 접근법에 가장 적합한 툴을 고를 수 있도록 선택지를 제시합니다. 가령 상태 벡터 기법(state vector method)은 충실도가 높은 결과를 내지만 큐비트의 수에 따라 메모리 요구사항이 기하급수적으로 증가합니다.

그 결과, 현존하는 최대 규모의 전통적 슈퍼컴퓨터에서도 큐비트는 약 50개가 사실상 한계에 해당합니다. 그러나 상태 벡터 기법을 활용한 양자 회로 시뮬레이션을 cuQuantum으로 가속화하자 훌륭한 결과가 도출됐습니다(하단 그래프 확인해보세요).

State vector: 1,000 circuits, 36 qubits, depth m=10, complex 64 | CPU: Qiskit on dual AMD EPYC 7742 | GPU: Qgate on DGX A100

보다 새로운 접근법인 텐서 네트워크 시뮬레이션(tensor network simulation)은 유사한 작업 수행에 더 적은 메모리와 더 많은 연산을 사용합니다.

이 기법을 활용하여 NVIDIA와 미국 캘리포니아공과대학(Caltech)은 NVIDIA A100 Tensor Core GPU에 cuQuantum을 활용해 최첨단 양자 회로 시뮬레이터를 가속했습니다. cuQuantum이 Selene에서 구글 시카모어(Google Sycamore) 회로의 풀서킷(full-circuit) 시뮬레이션을 진행하고 샘플을 생성하기까지 9.3분이 걸렸습니다. 18개월 전 까지만 해도 전문가들은 동일한 작업으로는 수백만 개의 CPU 코어를 동원해도 수일이 걸릴 것으로 예측한 바 있죠.

Tensor Network – 53 qubits, depth m=20 | CPU: Quimb on Dual AMD EPYC 7742 estimated | GPU: Quimb on DGX-A100

캘리포니아공과대학의 연구자 조니 그레이(Johnnie Gray)는 “Cotengra/Quimb 패키지, NVIDIA cuQuantum SDK와 Selene 슈퍼컴퓨터를 사용해 10분만에 뎁스 m=20에서 시카모어 양자 회로의 샘플을 생성했습니다”고 설명했습니다.

해당 연구를 주도한 캘리포니아공과대학 화학과 교수 가넷 챈(Garnet Chan)은 “이는 양자 회로 시뮬레이션 성능의 벤치마크가 될 것입니다. 또한 양자 회로의 작동 양식을 입증할 능력을 개선해 양자 컴퓨팅 분야의 발전에 기여할 것입니다”이라고 평가했죠.

NVIDIA는 진일보한 성능과 사용상의 편리함을 겸비한 cuQuantum이 양자 컴퓨팅이라는 최첨단 연구의 프레임워크와 시뮬레이터의 기본으로 자리매김할 것으로 기대합니다.

cuQuantum에 관심이 있다면 여기를 확인하세요.

더불어 GTC 2021에서 진행된 NVIDIA 창립자 겸 CEO 젠슨 황(Jensen Huang)의 기조연설 영상에서도 확인 가능합니다!