한 세기 전, 헨리 포드는 자동차와 엔진의 대량 생산을 가능케 하여 저렴한 가격에 교통수단을 제공했습니다. 그리고 오늘날, 기술 산업은 새로운 종류의 공장, 즉 인텔리전스를 생산하는 공장의 엔진을 만들고 있습니다.
수많은 기업과 국가들이 점점 AI에 더 집중하고, 실험 단계에서 구현 단계로 나아감에 따라 AI 기술에 대한 수요는 기하급수적으로 증가하고 있는데요, 주요 글로벌 시스템 빌더들은 AI 팩토리의 엔진이라 할 수 있는 AI 서버 생산을 확대하기 위해 경쟁하고 있으며, 이는 전 세계적으로 폭발적으로 증가하는 인텔리전스와 그 성장에 대한 수요를 충족시키기 위해서 입니다.
Dell Technologies는 바로 이러한 르네상스 시대의 선두주자입니다. Dell과 NVIDIA는 지난 수십 년간 긴밀한 파트너십을 맺어왔으며, 혁신의 속도를 계속해서 높이고 있습니다. 특히 최근 실적 발표에서 Dell은 올해 AI 서버 사업이 최소 150억 달러 성장할 것으로 전망했죠.
“저희는 전 세계 수백만 고객에게 AI를 제공한다는 사명을 가지고 있습니다.”라고 Dell Technologies의 CEO인 Michael Dell은 최근 열렸던 Dell Technologies World에서 발표했습니다. “NVIDIA 기반 Dell AI 팩토리와 함께, 기업들은 이제 모든 규모에서 다양한 사용 사례에 걸쳐 AI의 전체 라이프사이클을 관리할 수 있습니다. 학습부터 배포까지 말이죠.”
최신 Dell AI 서버는 NVIDIA Blackwell 기반으로 구동되며, Hopper 플랫폼 대비 최대 50배 더 많은 AI 추론 출력과 5배 향상된 연산량을 선사하는데요, 고객들은 이를 활용해 질병 예방부터 최첨단 제조에 이르기까지, 세계에서 가장 어려운 난제들을 해결할 새로운 AI 애플리케이션을 위한 토큰을 생성하고 있습니다.
NVIDIA GB200이 탑재된 Dell 서버는 CoreWeave의 새로운 NVIDIA GB200 NVL72 시스템 등 다양한 고객에게 대규모로 출하되고 있습니다. 미국에 위치한 Dell의 한 공장에서는 일주일에 수천 개의 NVIDIA Blackwell GPU를 고객에게 출하할 수 있습니다. 이 때문에 Dell 은 한 대형 고객에게 단 6주 만에 10만 개의 NVIDIA GPU를 배포하는 업체로 선정되었습니다.
그렇다면 AI 서버는 어떻게 만들어질까요? 그 과정을 자세히 알아보기 위해 한 시설을 방문했습니다.
인텔리전스 엔진 구축
Dell의 미국 내 시설 중 가장 연산 밀도가 높은 NVIDIA Blackwell 세대 서버를 제조하는 곳을 방문해보았는데요,
오늘 날의 자동차 엔진은 200개가 넘는 주요 부품으로 구성되어 있으며, 시장에 출시되기까지 3~7년이 걸리는데에 반해, NVIDIA GB200 NVL72 서버는 무려 120만 개의 부품으로 이루어져 있으며, 이는 불과 1년 전에 설계된 것입니다.
조립 단계별로 그룹화된 랙의 숲 속에서 Dell 직원들은 GB200 트레이, NVLink Switch 네트워킹 트레이를 신속하게 삽입한 후 시스템을 테스트합니다. 회사 측은 컴퓨트, 네트워크, 스토리지 조립을 한 지붕 아래에서 엔지니어링하고, 미세 조정 및 배포, 완성된 시스템 통합까지 할 수 있는 역량이 강력한 차별점이라고 밝혔습니다. 속도 또한 중요합니다. Dell 팀은 구축, 테스트, 출하 – 그리고 고객 현장에서 다시 테스트 후 24시간 내에 한 랙을 인도할 수 있습니다.
이 서버들은 최첨단 데이터 센터로 향하게 되며, 이곳에서는 엄청난 양의 케이블, 파이프, 호스가 필요하게 됩니다. 하나의 데이터 센터에는 27,000마일에 달하는 네트워크 케이블이 들어가는데, 이는 지구를 한 바퀴 감쌀 수 있는 길이입니다. 약 6마일의 수도관, 77마일의 고무 호스가 설치될 수 있으며, 분당 10만 갤런의 물을 냉각용으로 순환시킬 수 있습니다.
현재 매주 새로운 AI 팩토리들이 발표되고 있는데요, 유럽 연합은 7개의 AI 팩토리 계획을 가지고 있고, 인도, 일본, 사우디 아라비아, UAE, 노르웨이 또한 구축 중에 있습니다. 이 뿐만 아니라 앞으로 몇 달, 몇 년 동안 이러한 인텔리전스의 엔진에 대한 수요는 더욱 커질 것입니다.