넥사 AI(Nexa.ai)의 로컬 AI 에이전트는 상황에 맞는 통찰력을 제공해 생산성을 높이며, 회의 준비, 학습, 콘텐츠 제작과 조사를 지원합니다.
거대 언어 모델(LLM) 기반 AI 어시스턴트는 강력한 생산성 도구입니다. 그러나 적절한 맥락과 정보가 없으면 알맞고 관련성 있는 답변을 제공하는 데 어려움을 겪을 수 있죠. 대부분의 LLM 기반 채팅 애플리케이션은 사용자가 일부 파일을 제공해 맥락을 보충할 수 있도록 하지만, 사용자 PC에 저장된 슬라이드, 노트, PDF, 사진 등 다양한 정보에는 접근하지 못합니다.
넥사 AI(Nexa.ai)의 하이퍼링크는 이러한 문제를 해결하는 로컬 AI 에이전트입니다. 하이퍼링크는 수천 개의 파일을 빠르게 인덱싱하고, 사용자의 질문 의도를 이해하며, 맥락에 맞는 맞춤형 인사이트를 제공하죠.
새롭게 공개된 버전에는 NVIDIA RTX AI PC를 위한 가속 기능을 포함하고 있으며, 검색 증강 생성(RAG) 인덱싱 속도가 3배 향상됐습니다. 예를 들어, 이전에 인덱싱에만 약 15분이 걸리던 1GB 용량의 폴더를 이제는 불과 4~5분 만에 검색 준비를 마칠 수 있는 것이죠. 또한 LLM 추론 속도도 2배 빨라져 사용자 쿼리에 대한 응답 시간이 더욱 단축됐습니다.

로컬 데이터를 인스턴트 인텔리전스로 전환
하이퍼링크는 생성형 AI를 활용해 수천 개의 파일 속에서 정확한 정보를 검색하며, 단순한 키워드 매칭이 아닌 사용자 쿼리의 의도와 맥락을 이해합니다.
이를 위해 작은 폴더부터 컴퓨터 내 모든 파일까지 사용자가 지정한 모든 로컬 파일에 검색 가능한 인덱스로 변환하는데요. 사용자는 자연어로 원하는 내용을 설명하기만 하면 문서, 슬라이드, PDF, 이미지 등 다양한 파일에서 관련 정보를 찾을 수 있습니다.
예를 들어, 사용자가 ‘두 공상과학 소설의 주제를 비교하는 독후감 작성’에 필요한 정보를 요청하면, 하이퍼링크는 파일명이 단순히 ‘문학_과제_최종본.docx(Lit_Homework_Final.docx)’으로 되어있더라도 해당 주제와 관련된 정보를 찾아낼 수 있습니다.
검색 기능과 RTX 가속 LLM의 추론 능력을 결합한 하이퍼링크는 사용자의 파일에서 얻은 인사이트를 바탕으로 질문에 답변합니다. 다양한 출처의 아이디어를 연결하고 문서 간 관계를 식별해 명확한 출처 표기와 함께 논리적인 답변을 생성하죠.
모든 사용자 데이터는 기기 내에만 저장되며 비공개로 유지됩니다. 즉, 개인 파일이 컴퓨터 외부로 전송되지 않아 민감한 정보가 클라우드로 유출될 걱정을 하지 않아도 되는 것입니다. 이를 통해 사용자는 통제권과 안정감을 유지하면서도 강력한 AI의 혜택을 누릴 수 있습니다.
하이퍼링크는 이미 전문가, 학생, 크리에이터 사이에서 다음과 같은 작업에 활용되고 있습니다.
- 회의 준비: 메모와 회의록 전반의 핵심 논의 사항 요약.
- 보고서 분석: 업계 보고서 전반의 핵심 데이터를 인용해 근거 있는 답변 생성
- 콘텐츠 제작: 수년간 저장된 노트와 초안을 바탕으로 글쓰기, 영상 아이디어 수집
- 효율적인 학습: 시험 공부 중 강의 노트, 슬라이드, 튜토리얼 동시 검색으로 핵심 개념 복습
- 영수증 정리: 스캔한 문서를 분류하고 경비 보고서 자동 작성
- 빠른 디버깅: 코드 내 문서와 주석을 검색해 오류, 버전 충돌 해결
하이퍼링크 앱을 다운로드하고, RTX PC에서 AI 검색을 시작해보세요.
페이스북(Facebook), 인스타그램(Instagram), 틱톡(TikTok), X에서 NVIDIA AI PC에 연결하고, RTX AI PC 뉴스레터를 구독해 최신 소식을 받아볼 수 있습니다. 링크드인(LinkedIn)과 X에서 NVIDIA Workstation을 팔로우하세요.
소프트웨어 제품 정보에 관한 공지를 확인하세요.

