인공지능(AI)은 다른 혁신적인 기술과 마찬가지로 그 기능과 사회적 영향력이 지속적으로 성장하고 있는 현재 진행형 기술입니다. 신뢰할 수 있는 인공지능 이니셔티브는 인공지능이 사람과 사회에 미칠 수 있는 실제적인 영향을 인식하고, 그 힘을 긍정적인 변화를 위해 책임감 있게 활용하는 것을 목표로 합니다.
신뢰할 수 있는 AI란 무엇인가요?
신뢰할 수 있는 AI는 AI와 상호 작용하는 사람들의 안전과 투명성을 우선시하는 AI 개발 접근 방식입니다. 신뢰할 수 있는 AI 개발자는 완벽한 모델은 없다는 것을 이해하고 고객과 일반 대중이 기술의 구축 방식, 의도된 사용 사례 및 한계를 이해할 수 있도록 돕는 조치를 취합니다.
신뢰할 수 있는 AI 모델은 개인정보 보호 및 소비자 보호법을 준수할 뿐만 아니라 안전, 보안, 원치 않는 편향성 완화 테스트를 거칩니다. 또한 정확도 벤치마크나 학습 데이터 세트에 대한 설명과 같은 정보를 규제 당국, 개발자, 소비자 등 다양한 대상에게 투명하게 제공합니다.
신뢰할 수 있는 AI의 원칙
신뢰할 수 있는 AI 원칙은 NVIDIA의 엔드투엔드 AI 개발의 기본입니다. 이 원칙은 AI에 대한 신뢰와 투명성을 구현하고 파트너, 고객 및 개발자의 작업을 지원한다는 간단한 목표를 가지고 있습니다.
개인 정보 보호: 개인정보 보호: 규정 준수, 데이터 보호
AI는 종종 데이터에 목마른 존재로 묘사됩니다. 알고리즘이 더 많은 데이터를 학습할수록 예측이 더 정확해지는 경우가 많습니다.
하지만 데이터는 어딘가에서 제공되어야 합니다. 신뢰할 수 있는 AI를 개발하려면 어떤 데이터를 합법적으로 사용할 수 있는지뿐만 아니라 어떤 데이터를 사용하는 것이 사회적 책임이 있는지를 고려하는 것이 중요합니다.
개인의 이미지, 음성, 예술 작품, 건강 기록 등의 데이터에 의존하는 AI 모델 개발자는 개인이 이러한 방식으로 개인 정보가 사용되는 것에 대해 적절한 동의를 제공했는지 평가해야 합니다.
병원이나 은행과 같은 기관에서 AI 모델을 구축한다는 것은 강력한 알고리즘을 학습시키는 동시에 환자 또는 고객 데이터를 비공개로 유지해야 하는 책임의 균형을 맞추는 것을 의미합니다. NVIDIA는 연구자들이 기밀 정보가 회사의 개인 서버에 유출되지 않고 여러 기관의 데이터로 훈련된 AI 모델을 개발하는 연합 학습을 가능하게 하는 기술을 개발했습니다.
의료 및 금융 서비스 분야의 여러 연합 학습 프로젝트에서 NVIDIA DGX 시스템과 NVIDIA FLARE 소프트웨어는 의료 이미지 분석 및 사기 탐지를 위한 보다 정확하고 일반화 가능한 AI 모델에 대해 여러 데이터 제공업체가 안전하게 협업할 수 있도록 지원합니다.
안전 및 보안: 의도치 않은 피해, 악의적인 위협 방지
시스템은 일단 배포되면 실제 세계에 영향을 미치므로 사용자의 안전을 지키기 위해 의도한 대로 작동하는 것이 중요합니다.
공개적으로 사용 가능한 AI 알고리즘을 자유롭게 사용할 수 있다는 것은 긍정적인 애플리케이션에 대한 엄청난 가능성을 창출하지만, 동시에 이 기술이 의도하지 않은 목적으로 사용될 수 있음을 의미합니다.
위험을 완화하기 위해 NVIDIA NeMo Guardrails는 기업 개발자가 애플리케이션에 대한 경계를 설정할 수 있도록 하여 AI 언어 모델을 정상적으로 유지합니다. 토픽 가드레일은 챗봇이 특정 주제에 집중하도록 보장합니다. 안전 가드레일은 앱이 응답에 사용하는 언어와 데이터 소스에 대한 제한을 설정합니다. 보안 가드레일은 타사 애플리케이션 또는 애플리케이션 프로그래밍 인터페이스에 연결된 대규모 언어 모델의 악의적인 사용을 방지합니다.
NVIDIA Research는 디지털 포렌식 전문가가 AI로 생성된 이미지를 식별하는 데 도움을 주기 위해 DARPA가 운영하는 SemaFor 프로그램과 협력하고 있습니다. 작년에 연구원들은 ChatGPT를 사용하여 사회적 편견을 해결하는 새로운 방법을 발표했습니다. 또한 아바타 핑거프린팅(누군가가 다른 사람의 동의 없이 AI로 애니메이션된 닮은꼴을 사용하고 있는지 감지하는 방법)을 위한 방법도 개발하고 있습니다.
보안 위협으로부터 데이터와 AI 애플리케이션을 보호하기 위해 NVIDIA H100 및 H200 텐서 코어 GPU는 컨피덴셜 컴퓨팅으로 구축되어 온프레미스, 클라우드 또는 엣지에 배포하든 사용 중에 민감한 데이터를 보호할 수 있도록 보장합니다. NVIDIA 컨피덴셜 컴퓨팅은 하드웨어 기반 보안 방법을 사용하여 권한이 없는 주체가 데이터 또는 애플리케이션이 실행되는 동안(일반적으로 데이터가 취약한 시간대) 이를 보거나 수정할 수 없도록 합니다.
투명성: 설명 가능한 AI 만들기
신뢰할 수 있는 AI 모델을 만들려면 알고리즘이 블랙박스가 되어서는 안 되며, 제작자, 사용자, 이해관계자가 AI가 어떻게 작동하는지 이해할 수 있어야 결과를 신뢰할 수 있습니다.
AI의 투명성은 사용자와 기타 이해관계자가 AI 모델이 학습된 방식과 작동 방식을 이해하는 데 도움이 되는 일련의 모범 사례, 도구 및 설계 원칙입니다. 설명 가능한 AI(XAI)는 투명성의 하위 집합으로, 이해관계자에게 AI 모델이 특정 예측과 결정을 내리는 방법을 알려주는 도구를 포함합니다.
투명성과 XAI는 AI 시스템에 대한 신뢰를 구축하는 데 매우 중요하지만, 모든 종류의 AI 모델과 이해관계자에게 적합한 보편적인 솔루션은 없습니다. 올바른 솔루션을 찾으려면 AI가 영향을 미치는 대상을 파악하고, 관련 위험을 분석하며, AI 시스템에 대한 정보를 제공하는 효과적인 메커니즘을 구현하기 위한 체계적인 접근 방식이 필요합니다.
검색 증강 생성(RAG)은 생성형 AI 서비스를 권위 있는 외부 데이터베이스에 연결하여 모델이 출처를 인용하고 보다 정확한 답변을 제공할 수 있도록 함으로써 AI 투명성을 향상시키는 기술입니다. NVIDIA는 개발자들이 생성형 AI 모델 개발 및 커스터마이징을 위해 NVIDIA NeMo 프레임워크를 사용하는 RAG 워크플로우를 시작할 수 있도록 지원하고 있습니다.
NVIDIA는 또한 미국 국립표준기술연구소의 미국 인공 지능 안전 연구소 컨소시엄(AISIC)의 일원으로 책임 있는 AI 개발 및 배포를 위한 도구와 표준을 만드는 데 도움을 주고 있습니다. 컨소시엄의 일원으로서 NVIDIA는 AI 모델 투명성 구현을 위한 모범 사례를 활용하여 신뢰할 수 있는 AI를 촉진할 것입니다.
또한 NVIDIA의 가속 소프트웨어 허브인 NGC에서 모델 카드는 각 AI 모델이 어떻게 작동하고 구축되었는지에 대한 자세한 정보를 제공합니다. NVIDIA의 모델 카드 ++ 형식에는 사용된 데이터 세트, 학습 방법 및 성능 측정, 라이선스 정보, 특정 윤리적 고려사항이 설명되어 있습니다.
차별 금지: 편견 최소화
AI 모델은 종종 규모, 범위, 다양성에 따라 제한된 데이터를 사용하여 사람에 의해 학습됩니다. 모든 사람과 커뮤니티가 이 기술의 혜택을 누릴 수 있도록 하려면 AI 시스템에서 원치 않는 편견을 줄이는 것이 중요합니다.
신뢰할 수 있는 AI 개발자는 정부 지침과 차별 금지법을 준수하는 것 외에도 알고리즘이 차별적이거나 특정 특성을 부적절하게 사용한다는 단서와 패턴을 찾아 원치 않는 편견의 가능성을 완화합니다. 데이터의 인종 및 성별 편향은 잘 알려져 있지만, 데이터 라벨링 과정에서 발생하는 문화적 편향과 편견도 고려해야 할 사항입니다. 원치 않는 편견을 줄이기 위해 개발자는 모델에 다양한 변수를 통합할 수 있습니다.
합성 데이터 세트는 자율 주행 차량 및 로봇 공학용 AI 개발에 사용되는 학습 데이터에서 원치 않는 편향을 줄이는 한 가지 솔루션을 제공합니다. 자율주행차 훈련에 사용되는 데이터가 극한의 기상 조건이나 교통 사고와 같은 흔하지 않은 장면을 제대로 표현하지 못하는 경우, 합성 데이터는 이러한 데이터 세트의 다양성을 보강하여 실제 세계를 더 잘 표현함으로써 AI 정확도를 개선하는 데 도움이 될 수 있습니다.
3D 파이프라인과 가상 세계를 생성하고 운영하기 위해 NVIDIA Omniverse 플랫폼에 구축된 프레임워크인 NVIDIA Omniverse Replicator는 개발자가 합성 데이터 생성을 위한 맞춤형 파이프라인을 설정하는 데 도움을 줍니다. 또한 전이 학습을 위한 NVIDIA TAO 툴킷과 컴퓨터 비전을 위한 편향되지 않은 데이터 세트 큐레이션을 위한 웹 플랫폼인 Innotescus를 통합함으로써 개발자는 데이터 세트 패턴과 편향을 더 잘 이해하여 통계적 불균형을 해결하는 데 도움을 받을 수 있습니다.
신뢰할 수 있는 AI에 대한 자세한 내용은 NVIDIA.com 및 NVIDIA 블로그에서 확인하세요. AI의 원치 않는 편향 문제를 해결하는 방법에 대해 자세히 알아보려면 3월 18일부터 21일까지 캘리포니아 산호세에서 열리는 NVIDIA GTC의 이 강연을 시청하고, 3월 18일부터 21일까지 열리는 컨퍼런스에서 신뢰할 수 있는 AI 트랙에 온라인으로 참여하세요.