Nemotron Labs: OpenClaw 에이전트가 모든 조직에 의미하는 것

OpenClaw가 오픈 소스 현상이 된 지금, NVIDIA는 기업들이 장기 실행 자율 에이전트를 안전하고 책임감 있게 배포할 수 있도록 NemoClaw 레퍼런스 구현체를 소개합니다.
by NVIDIA Korea

편집자 노트: 이 포스트는 최신 오픈 모델, 데이터셋, 훈련 기법이 기업들의 NVIDIA 플랫폼 기반 특화 AI 시스템 및 애플리케이션 구축을 어떻게 지원하는지 탐구하는 Nemotron Labs 블로그 시리즈의 일환입니다. 각 포스트는 오픈 스택을 활용해 투명한 리서치 코파일럿부터 확장 가능한 AI 에이전트에 이르기까지 프로덕션 환경에서 실질적인 가치를 창출하는 방법을 소개합니다.

2026년 초, 오픈 소스 프로젝트 OpenClaw는 하나의 현상이 되었습니다. 1월에는 개발자들의 폭발적인 관심 속에 GitHub 스타 수가 10만 개를 넘어섰고, 커뮤니티 대시보드와 트래픽 분석에 따르면 단 일주일 만에 방문자 수가 200만 명을 초과했습니다. 3월에 이르러서는 OpenClaw는 25만 개의 스타를 달성하며 단 60일 만에 React를 제치고 GitHub에서 가장 많은 스타를 받은 소프트웨어 프로젝트가 되었습니다.

OpenClaw GitHub 스타 성장 추이

Peter Steinberger가 만든 OpenClaw는 로컬 환경이나 개인 서버에서 실행되도록 설계된 자가 호스팅 방식의 영속적 AI 어시스턴트입니다. 이 프로젝트는 접근성과 무제한적 자율성으로 주목받았죠. 사용자는 클라우드 인프라나 외부 API(애플리케이션 프로그래밍 인터페이스)에 의존하지 않고 AI 모델을 로컬에서 배포할 수 있었습니다.

오늘날 대부분의 AI 에이전트는 프롬프트에 의해 트리거되고, 정해진 작업을 완료한 후 실행을 멈춥니다. 장기 실행 자율 에이전트, 즉 ‘클로(claw)’는 다르게 작동합니다. 이러한 에이전트들은 백그라운드에서 지속적으로 실행되며, 스스로 작업을 완료하고 인간의 결정이 필요한 사항만 표면화합니다. 이들은 ‘심장박동’처럼 작동합니다. 일정한 주기로 작업 목록을 확인하고, 필요한 조치를 평가하며, 행동하거나 다음 주기를 기다립니다.

OpenClaw의 빠른 확산은 논쟁을 불러일으키기도 했습니다. 보안 연구자들은 자가 호스팅 AI 도구가 민감한 데이터, 인증 및 모델 업데이트를 어떻게 관리하는지에 대한 우려를 제기했습니다. 일부는 로컬 배포가 패치되지 않은 서버 인스턴스나 커뮤니티 포크의 악성 기여 등 새로운 위험에 사용자를 노출시킬 수 있는지 의문을 제기했습니다. 기여자와 관리자들이 이러한 문제를 해결하기 위해 노력하는 가운데, OpenClaw의 부상은 AI 생태계 전반에서 개방성, 프라이버시, 안전성 간의 트레이드오프에 대한 광범위한 논의를 촉발했습니다.

OpenClaw 프로젝트의 보안성과 견고성을 강화하기 위해, NVIDIA는 최근 OpenClaw 블로그 포스트에서 언급된 것처럼 Steinberger 및 OpenClaw 개발자 커뮤니티와 협력하여 잠재적 취약점을 해결하고 있습니다.

NVIDIA는 모델 격리 개선, 로컬 데이터 접근 관리 강화, 커뮤니티 코드 기여 검증 프로세스 강화에 초점을 맞춘 코드와 가이드라인을 기여하고 있습니다. 목표는 보안 및 시스템 전문성을 개방적이고 투명한 방식으로 기여함으로써 OpenClaw의 독립적 거버넌스를 유지하면서 커뮤니티의 작업을 강화하고 프로젝트의 모멘텀을 지원하는 것입니다.

장기 실행 에이전트를 기업 환경에서 더 안전하게 활용할 수 있도록, NVIDIA는 또한 NVIDIA NemoClaw를 도입했습니다. 이는 단일 명령어로 OpenClaw, NVIDIA OpenShell 보안 런타임, NVIDIA Nemotron 오픈 모델을 네트워킹, 데이터 접근, 보안에 대한 강화된 기본값과 함께 설치하는 레퍼런스 구현체입니다. NemoClaw는 조직이 클로를 더 안전하게 배포하기 위한 청사진 역할을 합니다.

AI의 각 물결과 함께 배가되는 추론 수요

AI 발전 단계별 추론 수요 증가

AI는 네 단계의 발전 단계를 거쳐왔으며, 각 단계 사이의 시간은 점점 짧아지고 있습니다. 예측 AI가 주류가 되기까지는 수년이 걸렸습니다. 생성형 AI는 더 빠르게 움직였습니다. 추론 AI는 더 빠르게 등장했습니다. OpenClaw가 대표하는 자율 AI는 더욱 빠른 속도를 보이고 있습니다.

각 물결과 함께 가중되는 것은 추론 수요입니다. 생성형 AI는 예측 AI 대비 토큰 사용량을 증가시켰습니다. 추론 AI는 이를 다시 100배 늘렸습니다. 지속적으로 실행되며 장시간에 걸쳐 작업을 수행하는 자율 에이전트는 추론 AI 대비 추론 수요를 다시 1,000배 높입니다. 각 물결은 필요한 컴퓨팅 자원을 배가시킵니다.

이러한 토큰 사용량의 증가는 조직들이 생산성을 수십 배 높일 수 있게 해주고 있습니다. 예를 들어, 장기 실행 에이전트는 연구자들이 밤새 문제를 해결하고, 수천 가지 구성으로 설계를 반복하거나, 시스템을 모니터링하면서 인간의 판단이 필요한 이상 징후만 표면화하는 데 도움을 줄 수 있습니다. 이를 통해 연구자들은 업무 시간을 더 높은 가치의 작업에 집중할 수 있습니다.

‘클로’ 배포 시점 결정: 어떤 도구를 선택할 것인가

생성형 AI가 즉시 처리 작업의 기본 도구로 자리 잡은 반면, 클로의 지속적인 ‘심장박동’이 뚜렷한 이점을 제공하는 특정 시나리오가 있습니다. 표준 프롬프트 기반 AI에서 장기 실행 에이전트로 전환하는 시점은 종종 워크플로우의 특성에 따라 결정됩니다.

  • ‘온디맨드’에서 ‘상시 가동’으로: 표준 모델이 즉각적인 인간 트리거 쿼리에 탁월한 반면, 클로는 수동 시작 없이 지속적인 백그라운드 모니터링이나 정기적인 시스템 점검이 필요한 작업에 더 적합한 경우가 많습니다.
  • 고반복 루프 관리: 수천 가지 화학 조합 테스트나 인프라 스트레스 테스트 시뮬레이션과 같은 복잡한 문제의 경우, 클로는 인간의 개입으로 병목 현상이 발생할 수 있는 방대한 반복 작업을 관리할 수 있습니다.
  • 제안에서 행동으로: 많은 워크플로우에서 표준 AI는 정보나 초안을 제공하는 데 사용됩니다. 클로는 AI가 API 상호작용, 데이터베이스 업데이트, 장기간에 걸친 파일 관리 등 실행 단계로 나아가는 것이 목표일 때 고려됩니다.
  • 리소스 최적화: 방대한 토큰 사용이 필요한 추론 작업의 경우, NVIDIA DGX Spark 개인용 AI 슈퍼컴퓨터와 같은 전용 하드웨어에 로컬 클로를 배포하면 고빈도 클라우드 API 호출에 비해 더 예측 가능한 비용과 데이터 프라이버시를 확보할 수 있습니다.

장기 실행 자율 에이전트의 활용 사례

장기 실행 자율 에이전트의 실용적인 응용 분야는 모든 기능과 산업에 걸쳐 있습니다.

금융 서비스 분야에서 에이전트는 거래 시스템과 규제 피드를 지속적으로 모니터링하여 아침 검토 전에 중요 이벤트를 표시합니다. 신약 개발 분야에서 에이전트는 연구자의 개입 없이 새로운 과학 문헌을 스캔하여 관련 발견을 추출하고 내부 데이터베이스를 실시간으로 업데이트합니다. 이전에는 몇 주가 걸리던 작업입니다.

엔지니어링 및 제조 분야에서 에이전트는 수천 가지 매개변수 조합을 테스트하고, 결과 순위를 매기며, 검토할 가치가 있는 구성을 표시함으로써 문제 분석 속도를 높입니다. 이 모든 것이 하룻밤 사이에 이루어질 수 있습니다.

IT 운영 분야에서 에이전트는 인프라 인시던트를 진단하고, 알려진 해결책을 적용하며, 새로운 문제만 에스컬레이션합니다. 이를 통해 평균 해결 시간을 몇 시간에서 몇 분으로 단축합니다. ServiceNow에서는 Apriel과 NVIDIA Nemotron 모델을 활용하는 AI 전문가들이 티켓의 90%를 자율적으로 처리할 수 있습니다.

기업들은 어떻게 자율 에이전트를 책임감 있게 배포할 수 있는가

자율 에이전트는 실제로 행동합니다. 통신을 전송하고, 파일을 작성하고, API를 호출하고, 라이브 시스템을 업데이트할 수 있습니다. 에이전트가 잘못된 행동을 취하면 실질적인 결과로 이어집니다. 처음부터 책임 프레임워크를 올바르게 설정하는 것이 필수적이며, 프로덕션 환경에서 자율 에이전트를 배포하는 조직은 거버넌스를 최우선 요건으로 다루어야 합니다.

조직은 에이전트가 무엇을 하고 있는지 확인하고, 각 단계에서 추론 과정을 검토하며, 행동을 감사하고, 필요할 때 개입할 수 있어야 합니다.

자율 에이전트를 책임감 있게 배포하는 조직들은 세 가지 우선순위에 집중합니다.

  • 개방적이고 감사 가능한 프레임워크: NemoClaw는 OpenClaw의 MIT 라이선스 코드베이스를 기반으로 구축되어 조직이 에이전트 프레임워크를 완전히 소유할 수 있습니다. 에이전트가 구축되고 배포되는 방식의 모든 계층을 읽고, 포크하고, 수정할 수 있습니다. 이러한 투명성 덕분에 팀은 코드 수준에서 시스템을 이해하고 제어할 수 있습니다. NVIDIA Nemotron과 같은 오픈 소스 모델을 로컬에서 실행하면 환자 기록, 법률 문서, 금융 거래, 독점 연구 등 민감한 워크로드를 조직 자체 환경 내에서 유지하여 추적 데이터가 조직의 통제하에 있게 합니다.
  • 런타임 환경 보안: NemoClaw는 OpenShell이라는 샌드박스 환경에서 에이전트를 실행하며, 에이전트가 할 수 있는 것과 할 수 없는 것을 정확하게 정의하여 처음부터 명확한 권한 경계를 강제합니다.
  • 로컬 컴퓨팅: NVIDIA DGX Spark 슈퍼컴퓨터는 항상 켜져 있는 지속적인 로컬 추론을 위해 만들어진 데스크사이드 폼팩터에서 데이터센터급 GPU 성능을 제공하며, 로컬 모델 호스팅과 조직 환경 내에 유지되는 데이터를 제공합니다. NVIDIA DGX Station 시스템은 복잡하고 지속적인 워크로드에서 여러 에이전트를 동시에 실행하는 팀을 위해 해당 기능을 확장합니다.

자율 에이전트가 실제로 무엇을 하는지 정의하는 조직들은 귀중한 것을 축적하고 있습니다. 실제 워크로드를 통해 개발된 거버넌스 프레임워크와 실질적으로 유용하게 만드는 조직적 맥락을 흡수한 에이전트를 포함한, 수개월에 걸친 실시간 운영 학습입니다. 이 기반은 시간이 지날수록 더욱 깊어질 것입니다.

NVIDIA NemoClaw 시작하기

NVIDIA DGX Spark에서 NemoClaw를 활용하여 더 안전한 AI 에이전트를 구축하는 방법에 대한 단계별 튜토리얼에 액세스하세요. NemoClaw가 단일 명령어로 더 안전하고 항상 작동하는 AI 어시스턴트를 어떻게 배포할 수 있는지 살펴보세요.

GitHub에서 제공되는 NemoClaw로 실험하고, NVIDIA Nemotron 3 Super와 DGX Spark의 Telegram을 사용하여 NemoClaw로 개발 중인 개발자 커뮤니티 Discord에 참여하세요.

NVIDIA AI 뉴스를 구독하고, 커뮤니티에 참여하며, LinkedIn, Instagram, X, Facebook에서 NVIDIA AI를 팔로우하여 에이전트 AI, NVIDIA Nemotron 등의 최신 소식을 받아보세요.

셀프페이스 동영상 튜토리얼과 라이브스트림을 탐색하세요.