Skip links

namuAI Stack: 온톨로지 기반 소버린 AI를 위한 나무기술의 청사진

namuAI Stack: 온톨로지 기반 소버린 AI를 위한 나무기술의 청사진

작성자: 나무기술(주) CAIO 고우주

자율 운영 엔터프라이즈 AI의 부상

현재 인공지능(AI) 시장은 주로 인간 사용자를 보조하는 생성형 AI 도구에서 기술 진화의 다음 단계는 복잡한 목표 달성을 위해 독립적으로 계획하고, 도구를 사용하며, 행동을 수행할 수 있는 자율 시스템, 즉 ‘AI 에이전트(AI Agent)’의 등장이다. 이는 인간이 모든 과정에 개입하는 보조자에서 자율적인 ‘디지털 워커(Digital Worker)’로의 패러다임 전환을 의미한다.

이러한 강력한 기술의 등장은 기업에 새로운 딜레마를 안겨주었다. 주요 클라우드 제공업체의 강력한 공용 AI 서비스는 데이터 주권, 보안, 특정 벤더에 대한 종속성 측면에서 심각한 과제를 제기한다. 이에 따라 기업의 거버넌스 프레임워크 내에서 완벽하게 통제 가능하고 안전하게 운영되는 플랫폼, 즉 ‘소버린 AI(Sovereign AI)’에 대한 필요성이 그 어느 때보다 중요해졌다.

나무기술의 namuAI Stack은 진정한 소버린 AI를 제공하기 위해 설계된 포괄적인 풀스택 아키텍처임을 논증하고자 한다. 클라우드 네이티브 오케스트레이션과 정교한 지식 온톨로지 레이어의 독창적인 통합이 어떻게 차세대 엔터프라이즈 AI 플랫폼의 청사진을 제시한다. 

1.소버린 AI 플랫폼의 해부학: namuAI Stack 계층별 분석

namuAI Stack을 구성하는 5개의 개별 레이어를 해부하고, 각 레이어의 기능과 이들이 상호 작용하여 어떻게 하나의 응집력 있는 전체를 형성한다.

namuAI Stack 레이어 계층
그림1: namuAI Stack 레이어 계층

1.1 자원 System Layer: 고성능, 소버린 레디 인프라

시스템 레이어는 namuAI Stack의 물리적, 논리적 토대를 형성한다. 이 계층은 namuEdge System을 포함한 핵심 하드웨어와 저수준 시스템으로 구성된다. 나무기술은 이 레이어 구축을 위해 업계 최고의 하드웨어 제공업체들과 전략적 파트너십을 맺었다. 견고한 서버 및 하이퍼컨버지드 인프라(HCI)를 위해 DELL TechnologiesNUTANIX와 협력하고, 특화된 AI 워크로드 처리를 위해 국내 AI 반도체 기업인 rebellion와 파트너 관계를 맺고 있다.

이러한 파트너 선정은 단순히 고성능 하드웨어를 공급받는 것을 넘어, 소버린 AI의 핵심 전제조건을 충족시키기 위한 전략적 선택이다. 기업이 데이터 주권을 확보하기 위해서는 데이터의 물리적 위치와 처리 과정을 완전히 통제할 수 있어야 한다. Dell의 엔터프라이즈 서버와 Nutanix의 HCI 솔루션은 기업이 온프레미스(On-premise) 또는 프라이빗 클라우드 환경에 인프라를 직접 구축할 수 있게 하여, 외부 클라우드 서비스에 대한 의존도를 낮추고 데이터에 대한 물리적 통제권을 보장한다. 또한, 표준 CPU만으로는 대규모 AI 연산을 효율적으로 처리하기 어렵다. 국내 AI 팹리스 기업인 리벨리온과의 협력은 AI 추론 및 학습 성능을 하드웨어 수준에서부터 최적화하는 동시에, 국가적 차원의 기술 자립 생태계 구축이라는 소버린 AI의 철학과도 일치한다. 따라서 시스템 레이어는 전체 스택을 위한 물리적, 논리적 보안 경계를 제공하며, 소버린 AI라는 개념을 실현 가능하게 만드는 전략적 기반이라 할 수 있다.

1.2 아키텍처Orchestration Layer: 중앙 신경 시스템

오케스트레이션 레이어는 나무기술의 운영 전문성이 집약된 namuAI Stack의 핵심 제어부다. 이 레이어는 나무기술의 주력 제품군인 클라우드 네이티브 PaaS(Platform as a Service)인 Cocktail Cloud, 그리고 멀티·하이브리드 클라우드 관리 플랫폼(CMP)인 SPERO와 NAA(Namu AI Agent)를 위한 namuOps로  구성된다. 여기에 Red Hat OpenShift AI와의 핵심 파트너십이 더해져 강력한 AI 운영 환경을 완성한다.

이 구성 요소들은 다음과 같은 시너지를 통해 통합된 제어 평면을 형성한다.

  • Cocktail Cloud: AI/ML 서비스를 포함한 컨테이너 기반의 클라우드 네이티브 애플리케이션을 구축, 배포, 관리하기 위한 PaaS 환경을 제공한다. 특히 CI/CD 파이프라인과 같은 데브옵스(DevOps) 자동화 기능을 통해 개발 민첩성을 극대화한다.
  • SPERO: 상위 CMP 역할을 수행하며, 프라이빗 및 퍼블릭 클라우드 전반에 걸쳐 분산된 이기종 환경(IaaS, PaaS, SaaS)을 단일 대시보드에서 통합 관리할 수 있는 창을 제공한다. 이를 통해 자원 관리, 비용 최적화, 운영 일관성을 확보한다.
  • Red Hat OpenShift AI: 데이터 준비, 모델 학습(Jupyter, TensorFlow 지원), 배포, 서빙(vLLM 기반 추론), 모니터링에 이르는 전체 AI 모델 수명 주기를 위한 견고한 MLOps(Machine Learning Operations) 기반을 제공한다.

결론적으로 오케스트레이션 레이어는 나무기술의 가장 강력한 차별화 요소로, 하이브리드·멀티 클라우드 인프라와 MLOps의 복잡성을 추상화하는 통합 ‘AI 운영체제’를 창출한다. 기업 AI 운영의 본질은 단순히 모델을 보유하는 것이 아니라, 온프레미스와 클라우드를 넘나드는 다양한 인프라 환경에서 데이터, 모델, 애플리케이션의 복잡한 수명 주기를 관리하는 데 있다. 

Cocktail Cloud(PaaS)는 애플리케이션 레이어를 담당하여 개발자가 AI 서비스를 쉽게 구축하고 배포할 수 있도록 지원하고, SPERO(CMP)는 인프라 레이어를 담당하여 운영자가 기본 리소스를 효율적으로 관리할 수 있게 한다. 이 두 솔루션의 통합은 개발(Dev)/초거대AI(LLM)과 운영(Ops) 사이의 간극을 매끄럽게 연결하는 다리 역할을 한다. 여기에 Red Hat OpenShift AI를 더함으로써, 기업은 수십 개의 오픈소스 AIOps 도구를 직접 조합하고 관리해야 하는 큰 부담 없이 표준화된 엔터프라이즈급 MLOps 툴킷을 즉시 활용할 수 있다. 따라서 이 레이어는 단순한 도구의 집합이 아니라, 기업 AI의 ‘운영’ 문제를 해결하기 위해 사전 통합된 플랫폼으로서, 고객이 인프라 관리가 아닌 비즈니스 가치 창출에 집중할 수 있도록 지원한다.

1.3 저장소 (Data Layer): 지능의 원자재 공급

데이터 레이어는 AI 모델을 구동하는 데 필요한 모든 종류의 기업 데이터를 수용하는 저장소 역할을 한다. 이 레이어는 정형 데이터인 데이터베이스, DataFrame, 그리고 비정형 데이터인 텍스트 문서, 이미지, 비디오 등 광범위한 데이터 포맷을 수집하도록 설계되었다. 이 레이어와 다음 온톨로지 레이어를 연결하는 핵심 파이프라인은 Knowledge ELT(Extract, Load, Transform) 프로세스로, 이는 대규모 데이터 처리를 위한 유연하고 현대적인 데이터 통합 접근 방식을 채택했음을 시사한다.

1.4 의미론적 엔진 (Ontology Layer): 정보에서 지식 제련

온톨로지 레이어는 namuOnthology suit for User Domain Knowledge를 포함하며, namuAI Stack에서 가장 혁신적인 부분이라 할 수 있다. 이 레이어의 목적은 데이터 레이어에서 수집된 원시 데이터를 구조화되고 기계가 읽을 수 있는(machine-readable) 지식 형태로 변환하는 것이다. 

이는 단순한 데이터 저장을 넘어 특정 비즈니스 도메인의 개념, 개체, 그리고 그들 간의 관계를 공식적으로 표현하는 체계를 만드는 과정이다. 이렇게 구조화된 지식은 단순한 패턴 매칭을 뛰어넘어, AI 에이전트가 고차원적인 추론과 문맥적 이해를 수행할 수 있게 하는 근본적인 토대가 된다.

그림 2: NAMU AI Agent와 namuOps
그림 2: NAMU AI Agent와 namuOps

1.5 실행 허브 (Application Layer): NAMU AI Agent Platform

애플리케이션 레이어는 스택의 최상단에 위치하며, 실제 비즈니스 가치가 실현되는 공간이다. NAMU AI Agent Platform은 기업이 복잡한 업무를 수행하는 자율 AI 에이전트를 직접 설계, 구축, 배포할 수 있는 환경을 제공한다. 이 플랫폼에서 구동되는 에이전트들은 온톨로지 레이어로부터 제공된 구조화된 지식을 활용하여 주변 환경을 인식하고, 설정된 목표에 대해 추론하며, 최적의 행동을 실행한다. 플랫폼은 계획, 도구 사용, 실행, 자기 성찰의 순환 구조로 이루어진 에이전트 워크플로우를 생성하고 관리하는 도구를 포함한다.

표 1: namuAI Stack 요약
표 1: namuAI Stack 요약

2.지식 파이프라인: 나무기술이 데이터로부터 지능을 구축하는 방법

namuAI Stack의 지능을 가능하게 하는 핵심적인 데이터-지식 변환 경로에 초점을 맞추어, 플랫폼의 고도화된 인텔리전스를 뒷받침하는 전략적 아키텍처를 제공한다.

2.1 ELT의 전략적 선택: 속도, 규모, 유연성 확보

namuAI Stack의 데이터 파이프라인은 전통적인 ETL(Extract, Transform, Load)이 아닌 현대적인 ELT(Extract, Load, Transform) 방식을 채택하고 있다. ETL은 데이터를 로드하기전에 변환 작업을 수행해야 하므로, 사전에 정의된 스키마에 맞춰 데이터를 가공해야 하는 경직된 파이프라인을 생성한다. 반면, ELT는 원시 데이터를 먼저 대상 데이터 웨어하우스나 데이터 레이크에 적재한 , 해당 시스템의 강력한 처리 능력을 활용해 내부에서 변환 작업을 수행한다.

나무기술이 ELT를 선택한 것은 AI 플랫폼의 성공에 필수적인 몇 가지 핵심 요건을 충족시키기 위한 전략적 결정이다.

  • 다양한 데이터 처리: 기업 AI 활용 사례에서는 정형, 반정형, 비정형 데이터(텍스트, 이미지 등)가 혼재하는 경우가 많다. ELT는 사전 스키마 정의 없이 원시 데이터를 그대로 적재할 수 있어 이러한 데이터 다양성을 처리하는 데 월등히 뛰어나다.
  • 속도와 민첩성 확보: 데이터는 추출 직후 거의 즉시 분석 및 탐색이 가능한 상태가 된다. 데이터 과학자나 AI 개발자는 새로운 분석 요구가 발생할 때마다 원시 데이터에 대해 변환 로직을 유연하게 수정하고 재실행할 수 있어, 개발 민첩성이 극대화된다.
  • 확장성: ELT는 Amazon Redshift나 Google BigQuery와 같은 현대적인 클라우드 데이터 플랫폼의 확장성을 최대한 활용하여 대규모 데이터셋에 대한 변환 작업을 수행한다. 이는 전통적인 ETL 서버에서는 병목 현상을 유발할 수 있는 작업이다.
그림 3: Ontology를 위한 ELT Layer 흐름
그림 3: Ontology를 위한 ELT Layer 흐름

결론적으로, ELT 채택은 사소한 기술적 디테일이 아니라 플랫폼 전체의 유연성과 미래 대응 능력을 결정하는 근본적인 아키텍처 설계다. AI 에이전트와 같은 고급 AI 시스템은 방대하고 다양한 데이터를 필요로 한다. 데이터를 적재하기 전에 어떤 질문을 할지 미리 결정해야 하는 전통적인 ETL 방식은 이러한 요구를 충족시키기에는 너무 느리고 경직되어 있다. ELT 접근 방식은 데이터 수집과 데이터 모델링을 분리함으로써, 모든 원시 데이터를 온전한 형태로 ‘지식 웨어하우스(Knowledge Warehouse)’에 보관할 수 있게 한다. 

이 원시 데이터 레이크는 그 자체로 기업의 전략적 자산이 된다. 데이터 사이언스티스트는 데이터를 다시 수집할 필요 없이 이 자산을 자유롭게 탐색하며 다양한 모델을 위한 각기 다른 ‘뷰’나 변환을 생성할 수 있다. 이러한 민첩성은 끊임없이 학습하고 적응해야 하는 AI 에이전트 플랫폼에 필수적이며, 따라서 ELT는 다음에 이어질 동적이고 강력한 온톨로지 레이어의 아키텍처적 전제 조건이라 할 수 있다.

2.2 엔터프라이즈 두뇌 구축: 지식 온톨로지의 역할

온톨로지는 단순한 데이터베이스 스키마를 넘어선 개념이다. 이는 특정 도메인의 개념(Class), 그 속성(Attribute), 개념들 간의 관계를 공식적이고 명시적으로 정의한 명세서다. 온톨로지를 통해 인간과 기계가 모두 이해할 수 있는 ‘공통 언어’를 구축할 수 있다.

namuOntology suit 는 이러한 온톨로지를 구축하기 위한 도구를 제공하며, 그 과정은 다음과 같을 것으로 추정된다.

  1. 클래스 및 계층 정의: 예를 들어, 금융 도메인에서 ‘대출’은 ‘금융 상품’의 하위 클래스로 정의될 수 있다.
  2. 속성 정의: ‘대출’ 클래스는 이자율, 원금과 같은 속성을 가질 수 있다.
  3. 관계 정의: ‘고객’은 ‘대출’을 보유한다(has), ‘대출’은 ‘자산’에 의해 담보된다(secured By)와 같은 관계를 정의한다.

이렇게 정의된 온톨로지를 실제 기업 데이터(온톨로지 용어로는 ‘개체’ 또는 ‘인스턴스’)에 적용하면 지식 그래프(Knowledge Graph)가 생성된다. 이 지식 그래프는 서로 연결된 개체와 사실들의 네트워크로서, 기업의 집단적 지식을 쿼리 가능한 형태로 표현한 것이다.

2.3 그래프 RAG를 통한 고차원 추론의 실현

일반적인 RAG(Retrieval-Augmented Generation, 검색 증강 생성)는 벡터 데이터베이스에서 의미적 유사성을 기반으로 텍스트 덩어리를 검색한다. 이는 유용하지만, 종종 깊이 있는 문맥적 이해가 부족하다는 한계가 있다.

그래프 RAG는 이러한 한계를 지식 그래프를 활용하여 극복한다. 사용자가 질문을 하면, 시스템은 단순히 유사한 텍스트를 찾는 데 그치지 않고 지식 그래프를 탐색(traverse)하여 서로 연결된 개체와 관계들로 구성된 풍부하고 구조화된 문맥을 검색한다.

예를 들어, “대출-123의 리스크는 무엇인가?”라는 질문에 대해 일반 RAG는 해당 대출이 언급된 문서를 찾아 답변할 수 있다. 반면, 그래프 RAG 시스템은 지식 그래프에서 ‘대출-123’ 노드로부터 시작하여, 그 대출을 보유한 ‘고객’, 해당 고객의 다른 ‘자산’ 및 ‘부채’, 그리고 그 대출을 승인한 ‘대출 담당자’ 노드까지 탐색한다. 이를 통해 훨씬 더 총체적이고 통찰력 있는 답변을 생성할 수 있다. 이것이 바로 namuAI Stack이 제공하는 고차원 추론 능력의 핵심이다.

표 2: AI 워크로드를 위한 데이터 파이프라인 비교 분석: ETL vs. ELT

3. 새로운 아키텍처 패러다임: 온톨로지 기반 소버린 AI 스택

앞선 모든 분석을 종합하여 나무기술이 구축한 새로운 아키텍처 모델을 공식적으로 정의한다.

3.1 아키텍처 정의: 온톨로지 기반 소버린 AI (ODSA) 스택

온톨로지 기반 소버린 AI(Ontology-Driven Sovereign AI, ODSA) 스택은 다음 세 가지 핵심 원칙을 특징으로 하는 풀스택 엔터프라이즈 AI 아키텍처로 정의할 수 있다.

(1) 주권적 통제(Sovereign Control): 기업의 거버넌스 경계 내(온프레미스 또는 프라이빗 클라우드)에 배포되도록 설계되어 데이터, 모델, 인프라에 대한 완전한 통제권을 보장한다.(2) 통합 오케스트레이션(Unified Orchestration): 클라우드 네이티브 애플리케이션 관리(PaaS)와 멀티 클라우드 인프라 제어(CMP), 그리고 완전한 MLOps 수명 주기를 단일의 응집력 있는 제어 평면으로 통합한다.

(3) 온톨로지 기반 지능(Ontology-Driven Intelligence): 플랫폼의 지능은 블랙박스 모델에만 의존하는 것이 아니라, 기업별 온톨로지로부터 구축된 동적이고 명시적인 지식 그래프에 기반한다. 이는 뛰어난 문맥적 추론, 투명성, 적응성을 가능하게 한다.

3.2 핵심 차별점과 경쟁 환경

ODSA 스택은 기존 AI 플랫폼 접근 방식과 비교하여 몇 가지 뚜렷한 차별점을 가진다.

  • 통제 및 보안: 여러 개의 공용 LLM API를 연동하는 방식과 달리, ODSA 모델은 안전하고 독립적인 환경을 제공하여 데이터 유출 위험을 완화하고 규제 준수를 보장한다. 이는 데이터 주권을 최우선으로 여기는 금융, 공공, 의료 분야에서 특히 중요한 장점이다.
  • 투명성 및 설명가능성(XAI): AI의 추론 과정 일부가 구조화된 지식 그래프를 탐색하는 것에 기반하기 때문에, 순수한 신경망 기반 모델의 결정보다 그 과정이 더 해석 가능하다. 이는 의사결정의 근거를 제시해야 하는 규제 산업에서 필수적인 요건이다.
  • 도메인 적응성: 온톨로지는 플랫폼을 특정 비즈니스 환경에 맞게 맞춤화하는 핵심 열쇠다. 기업은 자사의 고유한 비즈니스 문맥에 맞는 도메인 특화 온톨로지를 정의함으로써, AI 플랫폼의 ‘이해력’을 심화시키고 강력한 경쟁 우위를 확보할 수 있다. 이는 단순히 일반적인 LLM을 파인튜닝하는 것보다 훨씬 효과적인 접근 방식이다.

3.3 기업에 대한 전략적 시사점

ODSA 아키텍처의 도입은 기업에 몇 가지 근본적인 변화를 가져온다.

  • 데이터 주도에서 지식 주도로의 전환: ODSA 아키텍처는 기업이 단순히 데이터를 분석하는 것을 넘어, 조직의 전체 비즈니스를 기계가 읽을 수 있는 동적 모델, 즉 진정한 ‘조직 지식의 디지털 트윈’을 구축하고 활용할 수 있게 한다.
  • 진정한 자동화의 실현: 이 아키텍처는 단순한 과업 자동화(RPA)를 넘어 프로세스 자동화로 나아간다. 깊이 있는 도메인 지식을 갖춘 AI 에이전트는 여러 기업 시스템에 걸쳐 복잡하고 다단계적인 워크플로우를 자율적으로 조율할 수 있다.
  • 지속적인 혁신을 위한 플랫폼: 지식 그래프는 정적이지 않다. ELT 파이프라인을 통해 새로운 데이터가 지속적으로 수집됨에 따라 그래프는 성장하고 진화하며, 플랫폼 전체를 시간이 지남에 따라 더욱 스마트하게 만든다. 이는 데이터, 지식, 지능적 행동의 선순환 구조를 창출한다.

결론: 새로운 AI의 표준 아키텍처를 완성하는namuai Stack

namuAI Stack은 단순한 기술의 집합체가 아니다. 이는 강력한 AI 역량에 대한 열망과 데이터 주권 및 통제에 대한 타협할 수 없는 요구라는 현대 기업의 가장 시급한 두 가지 과제를 정면으로 해결하기 위해 신중하게 설계된 플랫폼이다.

나무기술의 플랫폼이 보여주는 온톨로지 기반 소버린 AI(ODSA) 스택은 엔터프라이즈 AI의 미래에 부합하게 설계했다. 기업들이 생성형 AI를 활용한 실험 단계를 지나 자율 에이전트를 핵심 업무에 배포하는 시대로 이동함에 따라, 통제, 투명성, 깊이 있는 도메인 지식을 우선시하는 아키텍처가 새로운 산업 표준을 지향할 것으로 전망한다.

참고자료 (Reference.)

error: Content is protected !!