SITE SEARCH

검색

사이트 전체 글을 빠르게 찾을 수 있습니다.

RSS FEED

RSS 구독

RSS 리더에서 Project Research의 새 글을 바로 받아볼 수 있습니다.

EMAIL SUBSCRIBE

이메일 구독

새 글을 이메일로 받아봅니다. RSS는 별도 RSS 아이콘을 눌러 동일한 크기의 패널에서 열 수 있습니다.

이메일로 블로그 구독하기

이 블로그를 구독하고 이메일로 새글의 알림을 받으려면 이메일 주소를 입력하세요







RAG 지식관리와 PM — PM 코치가 해석하는 PO·PM·PL의 조직 자산화

시리즈

PM 코치/컨설턴트로서 RAG를 분석한다는 것은 “어떤 벡터 DB가 제일 빠른가”를 가리는 일이 아닙니다.

PM 코치가 해석하는 Agentic PM 시리즈 · 6편
“8주 동안 PO·PM·PL이 먼저 준비할 것 vs 나중에 키울 것”

PM 코치/컨설턴트로서 RAG를 분석한다는 것은 “어떤 벡터 DB가 제일 빠른가”를 가리는 일이 아닙니다. “PM 조직이 10년간 쌓아온 lesson-learned register, RAID 리포트, playbook, decision log를 어떻게 운영 자산으로 되살릴 것인가” 를 PO·PM·PL 세 역할의 언어로 해석하는 일입니다.

2026년 2분기 현재, RAG 담론의 무게중심은 이미 이동했습니다. LlamaIndex는 공식 블로그에서 “RAG is dead, long live Agentic Retrieval” 을 선언하며 단일 경로 청크 검색이 아니라 3계층 에이전트 라우팅을 새 표준으로 제시했습니다 (LlamaIndex Blog). Microsoft GraphRAG는 1.0 릴리즈(2024-말) 이후 2026-03 업데이트로 비용 10-90% 절감 연구 누적과 함께 “엔터프라이즈 기본 옵션”으로 격상되었습니다 (Programming Helper 2026, Graph Praxis Medium). 그리고 평가 프레임워크는 RAGAS·TruLens·DeepEval 3강 체제로 굳어졌지만, 1,460문항 독립 벤치마크에서 “사실적으로 틀린 컨텍스트”를 세 도구 모두 일관되게 구분하지 못한다는 공통 한계가 공식화되었습니다 (Atlan 2026 비교).

이 세 신호를 동시에 보면 메시지가 또렷해집니다. RAG는 검색 기법이기 전에 지식 자산 인벤토리 문제이고, 벡터 DB 선택이기 전에 freshness·lineage·ACL의 거버넌스 문제이며, 프레임워크 선택이기 전에 “PM이 이미 매일 수행하던 Retrieval→Augmentation→Generation 3단계의 시스템화” 입니다. 여기에 EU AI Act 고위험 의무 2026-08 발효와 Obsidian Smart Connections 786,000+ 다운로드 수치가 얹히면서 (DataNucleus 2026, NxCode Obsidian Guide 2026), PM 조직의 결재 라인은 “RAG를 할까 말까”가 아니라 “어떤 3-component 아키텍처 × 어떤 평가 이원화 × 어떤 90-day 로드맵“으로 이동했습니다.

이 편에서는 PM 코치 1인칭으로, Agentic Retrieval 3계층·GraphRAG 1.0 비용 모델·RAGAS/TruLens/DeepEval 3강·Vault→MCP→Claude Code 3-component·EU AI Act 2026-08·90-day 로드맵을 PO·PM·PL이 각각 읽어내는 법으로 해석합니다. 목표는 “RAG를 쓸까 말까”를 넘어서 “우리 조직의 지식 자산 인벤토리 × 평가 이원화 체크리스트를 이번 주 안에 만들 수 있는가”입니다.

이 편이 답하는 질문
  • PM 조직의 lesson-learned register·playbook·decision log 같은 지식 자산을 PO는 어떤 고객 가치 시나리오로 재정의해야 하는가?
  • Vault → MCP → Claude Code 3-component 아키텍처에서 PM은 위임 구조와 inference/context 이원화 검증 루프를 어떻게 설계하는가?
  • Agentic Retrieval 3계층(Index → Mode → Rerank)에 대해 PL은 GraphRAG 1.0 비용 10-90% 절감 실험과 품질 게이트를 어떻게 자동화하는가?
  • EU AI Act 2026-08·EU Data Act 2025-09·OWASP LLM Top 10을 포함한 거버넌스 마감일과 90-day 엔터프라이즈 로드맵을 3-role이 어떻게 분담하는가?
이 시리즈를 읽는 세 개의 눈
역할 1-line 정체성
PO (Product Owner) 시나리오·비전·성공 메트릭 결정자
PM (Project Manager) 위임·거버넌스·검증 루프 설계자
PL (Project Lead) 품질 게이트·실험 시스템 결정자 (≠ Team Lead)

PART 1

현황 진단: 네 숫자가 만든 2026 Q2 RAG 지형

2026년 2분기 RAG 담론은 LlamaIndex의 “RAG is dead” 선언, GraphRAG 1.0의 10-90% 인덱싱 비용 절감, 평가 3강의 1,460문항 블라인드스팟, Smart Connections 786,000+ 다운로드라는 네 축에서 동시에 재편되었습니다. Part 1은 이 네 숫자와 고정된 레퍼런스 셋 5종을 묶어, PM이 “벡터 DB 이름”을 꺼내기 전에 “우리 팀이 몇 번째 같은 질문에 다시 답하고 있는지”부터 세어야 하는 이유를 설명합니다.

1.1 “RAG is dead × 10-90% × 1,460 × 786,000+”가 말하는 것

2026년 2분기 RAG 담론은 패러다임·경제성·평가 한계·채널 채택 네 축이 동시에 정량화되면서 의사결정 문법이 바뀌었습니다. 이 변화의 신호를 여섯 개의 수치로 압축할 수 있습니다.

지표 출처 시점
LlamaIndex 공식 패러다임 전환 선언 “RAG is dead, long live Agentic Retrieval” LlamaIndex Blog 2026 공개
GraphRAG 1.0 인덱싱 비용 절감 폭 10-90% Graph Praxis Medium 2026
평가 3강 공통 한계 벤치마크 1,460문항 / factually wrong context 미구분 Atlan 2026 비교 2026
Smart Connections 누적 다운로드 786,000+ NxCode Obsidian Guide 2026 2026-01
EU AI Act 고위험 의무 발효 마감 2026-08 DataNucleus 2026 2026
PMI lesson-learned register 사용 시 성공률 보고 78% PMI 학습 라이브러리 기존

저는 이 여섯 줄을 세 가지 명제로 압축합니다. 첫째, “RAG는 제품 이름이 아니라 조직의 검색 루프” 입니다. LlamaIndex의 “dead” 선언은 기본 RAG를 폐기하라는 뜻이 아니라 단일 경로 청크 검색에서 계층적 에이전트 라우팅으로 기본값이 이동했다는 뜻입니다. 둘째, “GraphRAG는 선택형 레이어” 입니다. 2024년 $33K 수준이던 초기 인덱싱 비용은 hierarchical summarization과 incremental indexing 조합으로 10-90% 절감 범위에 들어왔지만, 모든 데이터에 붙이는 “보편 적용”은 여전히 비권장입니다 (Programming Helper 2026). 셋째, “평가는 inference-layer 단독으로는 닫히지 않는다” 입니다. 세 도구 공통의 factually wrong context 블라인드스팟이 정량 확인되면서, 2026 권고는 inference-layer 평가 + context-layer 모니터링(정의 freshness·lineage·cross-source 일관성) 이원화 로 재정렬되었습니다 (Atlan 2026 비교).

1.2 “원칙 블로그 3종 + 정책 문서 2종”으로 고정된 레퍼런스 셋

2025년 하반기부터 2026년 1분기 사이에 RAG 담론의 레퍼런스 셋이 다섯 가지 문서로 고정되었다는 점도 PO·PM·PL이 반드시 알아둘 지점입니다. 첫째, LlamaIndex “Agentic Retrieval Guide”는 Index·Mode·Rerank 3계층 라우팅 원칙을 제공합니다 (LlamaIndex Blog, LlamaIndex Agentic RAG 아키텍처). 둘째, PremAI 2026 프로덕션 가이드는 chunking·hybrid·reranker·monitoring 기본값을 묶어 제시합니다 (PremAI 2026 가이드, PremAI Chunking 벤치마크 2026). 셋째, Microsoft GraphRAG 공식 페이지는 1.0 릴리즈 이후 “관계 탐색형 질의에 선택적 적용”이라는 권고를 명문화했습니다 (GraphRAG GitHub, GraphRAG 공식 페이지). 넷째, DataNucleus Agentic RAG Enterprise Guide는 EU AI Act 2026-08, EU Data Act 2025-09, OWASP LLM Top 10을 묶은 90-day 로드맵을 제시합니다 (DataNucleus 2026). 다섯째, Atlan 2026 비교는 RAGAS·TruLens·DeepEval 3강 프레임워크의 강점·약점·공통 한계를 정리해 평가 이원화의 공개 근거가 되었습니다 (Atlan 2026 비교).

이 다섯 문서는 “벡터 DB 선택보다 앞에 있는 레퍼런스” 로 기능합니다. 제가 컨설팅 현장에서 가장 먼저 점검하는 질문은 “우리 조직의 Agentic Retrieval 라우팅 카드, GraphRAG 도입 결정 프레임, 평가 이원화 템플릿, EU AI Act 체크리스트, 90-day 로드맵이 한 파일로 존재합니까?”입니다. 이 다섯 장의 종이가 준비되지 않은 채 “Obsidian MCP 서버를 붙일까요, 아니면 Pinecone을 붙일까요”를 논의하면, 토론은 항상 인프라 비교로 귀결되고 의사결정은 2주가 3개월이 됩니다.

1.3 시장·운영 지표 — “786,000+가 가리키는 것”

Obsidian Smart Connections의 2026-01 기준 누적 다운로드 786,000+ 는 단순 인기 지표가 아니라 “개인 vault가 이미 조직 RAG 후보 corpus”라는 선언에 가깝습니다 (NxCode Obsidian Guide 2026). Smart Connections MCP 서버(GitHub msdanyg)는 Claude Code가 vault의 embedding을 그대로 쿼리하도록 노출하고, obsidianGraphRAG(Jinstronda)와 obra/knowledge-graph는 vault를 GraphRAG corpus로 바꾸는 공개 경로를 만들었습니다 (Smart Connections MCP GitHub, obsidianGraphRAG GitHub, obra knowledge-graph GitHub). MotherDuck + DuckDB 가이드는 로컬 vault RAG를 노트북 위에서 36시간 내 구축 가능한 경로로 공개했습니다 (MotherDuck Obsidian RAG 가이드). 여기에 PMI의 “lesson-learned register 사용 시 성공률 향상을 보고한 PM 78%”(기존 공개 자료)와 PM Study Circle이 지적한 “저장은 되지만 검색되지 않는 고전적 문제”가 합쳐지면, PM 조직에서 RAG의 진짜 타깃이 어디인지 분명해집니다 (PMI 학습 라이브러리, PM Study Circle — Lessons Learned Register).

Voice Box #1 — PM 코치의 해석
LlamaIndex가 “RAG is dead, long live Agentic Retrieval”을 선언했을 때, 저는 “PM이 이미 하던 Retrieval→Augmentation→Generation 3단계의 시스템화”로 해석합니다. 제가 10년 PM 코칭 현장에서 반복해서 본 장면이 있습니다. 팀은 Pinecone vs Weaviate를 3주째 비교하면서도, 정작 “우리 조직에서 제일 자주 검색되지만 한 번도 답을 찾은 적 없는 질문 5개”를 한 번도 나열하지 못합니다. PM Rewired가 지적했듯 PM의 일상은 이미 RAG입니다 — Jira/Slack/Notion/이메일에서 맥락을 끌어와(Retrieval), 비즈니스 판단과 이해관계자 민감도를 얹고(Augmentation), 주간 리포트·의사결정 문서·RAID 리포트를 생산하는(Generation) 3단계 말입니다 (PM Rewired Medium). 저는 RAG 도입 미팅에서 “벡터 DB 이름 말고, 우리 팀이 지금 몇 번째 같은 질문에 다시 답하고 있는지부터 세어 봅시다”라고 말씀드립니다. 이 카운트가 없으면 어떤 MCP 서버를 붙여도 RAG는 예산 라인에서만 살아 있습니다.

PART 2

개념 심층: Agentic Retrieval 3계층과 Vault→MCP→Claude Code

Agentic Retrieval은 “한 번의 쿼리에 대해 Index·Mode·Rerank 세 번 결정한다”는 라우팅 구조입니다. Part 2는 이 3계층과 GraphRAG의 선택적 적용 구간, 그리고 RAGAS·TruLens·DeepEval 3강 평가의 inference/context 이원화를 PM·PL 관점에서 해석하고, 개인 Obsidian vault를 조직 RAG에 연결하는 Vault→MCP→Claude Code 3-component 아키텍처로 마무리합니다.

2.1 Agentic Retrieval — Index → Mode → Rerank 3계층 선언

2026년 프로덕션에서 수렴한 Agentic Retrieval 패턴은 “한 번의 쿼리에 대해 세 번 결정한다” 는 구조로 요약됩니다 (LlamaIndex Blog, LlamaIndex Agentic RAG 아키텍처, Tarun Singh Medium 2026).

계층 결정 대상 실패 시 증상 PM 해석
Index routing 어느 sub-index(프로젝트/도메인/클라이언트)가 관련 있는가 잘못된 corpus에서 답변 생성 “누구의 기억을 꺼낼 것인가” 라우팅 게이트
Retrieval-mode routing chunks 검색 / 파일 메타데이터 매칭 / 풀 파일 반환 중 무엇을 쓸 것인가 FAQ에 semantic chunk만 던져 정답을 파편화 “조회식이냐 해석식이냐” 결정
Hybrid + Rerank Dense(BGE-M3/Voyage-3-large) + BM25를 RRF로 병합, cross-encoder로 상위 5-10개 저밀도 쿼리에 과확신 답변 “후보 20-100 → 통과 5-10″의 품질 게이트

LangChain 진영도 동일한 방향으로 수렴했습니다. “LangGraph가 agent orchestration을 담당하고 LlamaIndex가 retrieval을 담당” 하는 하이브리드가 2026 프로덕션에서 가장 많이 쓰이며, LangChain vs LlamaIndex의 2026 비교는 “k를 작게 유지하고 rerank로 보정, 캐시를 적극 활용”을 공통 권고로 제시합니다 (Rahul Kolekar — LangChain vs LlamaIndex 2026, Tarun Singh Medium 2026). Toloka 2026 엔터프라이즈 가이드는 같은 스택에 Agent ReAct·Self-RAG·CRAG·HyDE·RAPTOR 패턴 라이브러리를 얹어 “쿼리 성격에 따라 패턴을 선택하는 의사결정표”를 제공합니다 (Toloka — Agentic RAG for Enterprise 2026).

2.2 GraphRAG — “보편 적용 아님, 관계 탐색형 질의에 선택적”

Microsoft GraphRAG는 1.0 릴리즈 이후 2026-03 업데이트로 성능 최적화와 신규 쿼리 기능이 더해지며 “실험 기술”에서 “엔터프라이즈 기본 옵션” 으로 격상되었습니다. 다만 “모든 데이터에 붙이라”는 뜻이 아닙니다 (Programming Helper 2026, Graph Praxis Medium, GraphRAG GitHub).

결정 축 GraphRAG가 이기는 구간 GraphRAG를 붙이지 않는 구간
데이터 특성 관계 탐색이 핵심(엔티티-관계 질의 빈번) 독립 사실 조회 위주
질의 패턴 다중 홉 추론, 원인-결과 추적 한 홉 사실 확인
비용 민감도 10-90% 절감 기법(hierarchical summarization·incremental indexing)을 운영 가능 인덱싱 비용 가드를 팀이 운영 불가
대표 도메인 Legal(계약-당사자-판례), Financial(회사-임원-규제), Healthcare(임상-논문-환자) FAQ, 티켓, 단일 문서 Q&A

PM 관점에서 GraphRAG의 도입 지점은 명료합니다 — “프로젝트 간 관계(의사결정-리스크-산출물-이해관계자)를 탐색해야 할 때” 입니다. “비슷한 리스크가 과거 프로젝트에 있었나”는 Hybrid로 충분하지만, “이 의사결정은 과거 어느 결정과 같은 조건에서 충돌했나”는 Graph가 필요합니다. GraphRAG-Bench(2025-06)가 수천 쿼리 단위로 효과를 정량화하면서 “언제 Graph가 효과적인가”를 이제 표로 답할 수 있게 되었다는 점도 PL이 PMO에게 설명할 근거로 유용합니다 (Graph Praxis Medium).

2.3 평가 3강 — RAGAS·TruLens·DeepEval과 inference/context 이원화

2026년 평가 프레임워크는 3강 체제로 굳어졌습니다. RAGAS는 faithfulness·answer relevancy·context precision·context recall 4개 핵심 메트릭과 빠른 구축 강점이 있고, TruLens는 OpenTelemetry 기반 span-level trace와 “RAG Triad”(context relevance·groundedness·answer relevance)로 관측성 중심이며, DeepEval은 50+ 메트릭·Pytest-native CI/CD로 엔지니어링 성숙 팀에 적합합니다 (RAGAS Faithfulness 공식 문서, TruLens RAG Triad 공식 문서, RAGAS arXiv 2309.15217, Atlan 2026 비교).

그런데 2026년 발표된 독립 벤치마크 1,460문항에서는 세 프레임워크 모두 “사실적으로 틀린 컨텍스트”를 신뢰성 있게 구분하지 못한다는 결과가 나왔습니다. Entity-swapped passage(엔티티만 바꾼 오답)가 부분적 정답보다 높은 점수를 받는 사례가 다수 발생했고, TruLens가 NDCG@5 0.932로 랭킹 정확도는 가장 우수했으나 “검색된 컨텍스트 자체가 신뢰할 만한가”는 어느 도구도 충분히 답하지 못했습니다 (Atlan 2026 비교).

ℹ️ 핵심 인사이트 — 평가 이원화는 권고가 아니라 기본값
2026 권장 설계는 (1) Inference-layer 평가(RAGAS/TruLens/DeepEval 중 택일 — Faithfulness ≥ 0.85, Context Precision ≥ 0.75, Citation Precision ≥ 0.9)에 (2) Context-layer 모니터링(정의 freshness·lineage·cross-source 일관성)을 별도 시스템으로 더하는 이원화입니다 (DataNucleus 2026). PM 조직에서는 lesson-learned register가 1년 이상 업데이트가 없으면 “stale” 태그를 자동으로 달고, RAG가 해당 엔트리를 retrieve할 때 경고를 띄우는 가벼운 장치가 그대로 context-layer 모니터링의 엔트리 포인트가 됩니다.

2.4 Vault → MCP → Claude Code 3-component 아키텍처

%%{init: {'theme': 'base', 'themeVariables': {'primaryColor': '#fdf2d8', 'primaryTextColor': '#17160f', 'primaryBorderColor': '#8f5e00', 'lineColor': '#7a7868', 'secondaryColor': '#e6edfb', 'tertiaryColor': '#eeebd8', 'fontSize': '14px'}}}%%
flowchart LR
    VAULT["Obsidian Vault
Markdown + Frontmatter v5.4
atoms(Pattern/Checklist/Prompt/Decision)"] SC["Smart Connections
로컬 embedding
.smart-env / LanceDB"] MCP["MCP Server
smart-connections-mcp
obra/knowledge-graph"] CC["Claude Code Agent
LangGraph Agent
Tools + Guardrails"] RAGAS["Inference Eval
RAGAS / TruLens / DeepEval"] CTX["Context Monitor
freshness / lineage
cross-source"] VAULT --> SC SC --> MCP MCP --> CC CC --> RAGAS CC --> CTX RAGAS -.-> CC CTX -.-> VAULT

이 3-component 아키텍처가 특히 중요한 이유는 “PM 개인 vault를 조직 RAG에 연결하는 마지막 한 걸음” 이기 때문입니다. PM이 개인 vault에 작업 노트를 계속 쌓으면 MCP 서버가 노출하는 semantic search와 knowledge graph 도구를 Claude Code나 LangGraph 에이전트가 호출해 “이번 프로젝트 차터에 과거 삼성 Charter TOBE Macro 사례를 자동 반영” 과 같은 작업이 가능해집니다. AIPM 3층 SSoT 모델(Control Plane / System of Record / Knowledge Layer)은 이 아키텍처와 자연스럽게 겹치는데, vault-search.sh + vault-disposition.py + compile-to-wiki.py 파이프라인이 이미 Retrieval·Disposition·Compile 세 단계를 절반쯤 구현해둔 상태입니다 (Smart Connections MCP GitHub, MotherDuck Obsidian RAG 가이드).

이 편의 4-프레임워크 매핑
  • PMBOK 8: Project Knowledge Management · OPA · Tailor
  • SAFe 6: Team: Knowledge Sharing · Large Solution: Solution Context
  • BABOK v3: 6.5 Requirements Life Cycle Management · Knowledge Management
  • SEBOK v2.x: Part 3 Configuration & Data Management · Part 5 Knowledge Capture

(전체 32-cell 매핑은 시리즈 진입 가이드의 부록 D에서 확인)


PART 3

비교·한계·경고: Hybrid vs GraphRAG, 3강 평가의 블라인드스팟

Hybrid가 기본값이라는 말은 “GraphRAG를 쓰지 말라”가 아니라 “GraphRAG는 관계 탐색 질의에만 선택적으로 붙인다”는 뜻입니다. Part 3는 chunking·reranker·embedding 2026 기본값, Hybrid와 GraphRAG의 의사결정 2열 카드, 그리고 평가 3강이 1,460문항에서 공통으로 놓친 “사실적으로 틀린 컨텍스트” 블라인드스팟을 PM·PL의 운영 리스크로 재배치합니다.

3.1 Chunking / Reranker / Embedding — 2026 기본값

PremAI 2026 가이드의 문서유형별 권고는 2026-04 재검증에서도 유효합니다. 기본값은 Recursive 512 tokens + 10-20% 오버랩, FAQ·티켓은 chunkless(전체 문서), 법률·규정은 Semantic 또는 Proposition chunking, 연구 논문은 Proposition chunking이 최상입니다 (PremAI 2026 가이드, PremAI Chunking 벤치마크 2026).

모델 유형 지연(대표) 특징
BAAI/bge-reranker-v2-m3 Cross-encoder ~30ms (GPU) 다국어(한국어 포함) 우수
ms-marco-MiniLM-L-6-v2 Cross-encoder ~10ms (CPU) 영어 전용, 최고속
Cohere rerank-v3.5 API ~100ms GPU 불필요, 관리형
Jina reranker-v2 Cross-encoder ~40ms (GPU) 긴 문서에 강점

한국어 PM 문서가 많은 vault에서는 bge-reranker-v2-m3 가 현실적 기본값입니다. 임베딩 쪽은 Voyage-3-large가 MTEB 리더보드 선두, BGE-M3가 자체 호스팅 1순위이며, “임베딩 모델 버전을 고정하고 업그레이드 시 전체 코퍼스를 재인덱싱한다”는 규칙이 2026 표준 운영 수칙으로 명문화되었습니다 (PremAI 2026 가이드, MMTEB arXiv 2504.14891).

3.2 Hybrid RAG vs GraphRAG — 2열 카드 비교

Hybrid RAG (Dense+BM25+Rerank) GraphRAG 1.0 (관계 탐색 선택 레이어)
강점 구축 빠르고 기본값이 탄탄, 대부분 Q&A에 충분 다중 홉 추론·관계 질의에 뚜렷한 품질 이득
약점 관계 질의에서 파편화, 인과 추론 약함 인덱싱 비용·운영 난이도, “보편 적용” 시 ROI 악화
권장 구간 FAQ, 기술 문서, lesson-learned 단문 조회 Legal·Financial·Healthcare, 프로젝트 의사결정 관계 탐색
대표 스택 LlamaIndex Hybrid + bge-reranker-v2-m3 Microsoft GraphRAG 1.0 + hierarchical summarization
PM 리스크 관계 질의 누락, 단일 citation 의존 인덱싱 비용 통제 실패, 거버넌스 복잡도

3.3 3강 평가 프레임워크의 공통 한계 — Failure 테이블

세 프레임워크 공통 한계를 실전 failure 테이블로 풀면 다음과 같습니다.

실패 유형 발생 신호 근본 원인 완화 방법
F-1 Entity-swapped pass 엔티티만 바뀐 오답이 정답보다 높은 점수 inference-layer 메트릭이 entity consistency를 검증하지 못함 context-layer에 entity freshness·lineage 모니터 추가
F-2 Stale lesson retrieved 1년+ 미갱신 LL 엔트리를 권위 있게 인용 freshness 신호가 평가 루프에 없음 vault-disposition.py stale-check 통합 + 경고 주입
F-3 Cross-source contradiction 소스 A와 B가 상반된 정의를 둘 다 retrieve cross-source 일관성 감지 부재 정의 레지스트리 + 충돌 탐지 스크립트
F-4 Premature citation Citation이 붙었지만 실제로는 본문과 무관 Citation Precision 임계값 관리 부재 Citation Precision ≥ 0.9 gate
F-5 Index routing miss sub-index 선택이 틀려 corpus 자체가 오판 Agentic Retrieval 라우팅 단계 미구현 Index routing 로그 + 라우팅 기록
F-6 Chunk mismatch FAQ에 fixed-size 청킹을 강제 문서유형별 chunking 전략 부재 PremAI 권고 표를 팀 기본값으로 고정
F-7 ACL leakage 다른 클라이언트 문서가 retrieve됨 document-level ACL 미적용 Day 1부터 ACL + metadata filter
F-8 Embedding drift 임베딩 모델 버전 업그레이드 후 성능 급락 버전 고정 규칙 미준수 모델 버전 pin + 전면 재인덱싱 계획

3.4 Production 알림 임계값 — 자동화 기준

지표 경고 위험 출처
검색 p99 지연 >200ms >500ms PremAI 2026 가이드
Zero-result 비율 >5% >15% PremAI 2026 가이드
Faithfulness <0.80 <0.70 DataNucleus 2026
임베딩 API 오류 >1% >5% PremAI 2026 가이드
Recall@5 <0.85 <0.75 DataNucleus 2026
Voice Box #2 — PM 코칭 현장에서 본 흔한 함정
현장에서 가장 자주 듣는 말이 있습니다. “우리도 GraphRAG를 해봐야 하지 않을까요?” 저는 이 질문이 나오면 Graph Praxis Medium의 10-90% 비용 절감 범위를 같이 펼쳐놓고 되묻습니다. “이번 분기에 팀이 답해야 하는 질문 중에서 다중 홉 관계 추론을 요구하는 질문 5개를 적어 주실 수 있습니까?” 다섯 개를 쓰지 못하면 GraphRAG는 예산 라인만 커집니다. Hybrid RAG도 마찬가지입니다 — “지난 분기에 팀이 같은 사실을 몇 번 다시 찾았는지” 를 계산해 보지 않으면, RAGAS Faithfulness 0.85라는 숫자는 공허한 PR 문구가 됩니다. PMI 78%라는 PM 성공률 숫자가 말하는 것은 “lesson-learned를 기록하면 된다”가 아니라 “기록이 검색되어 재사용되는 루프가 살아 있을 때만 유효하다”는 뜻입니다.

PART 4

PO·PM·PL 3-Role Translation ⭐

L3→L4→L5 역량 래더 (시리즈 공통 축)
  • L3 수행(Performance) — 팀 단위 반복 운영 + Named Owner 지정 + 기본 가드레일. 진입 조건: 주 5회 이상 AI 협업 · SOP 1건.
  • L4 주도(Leadership) — 조직 표준 내재화 + OKR 정렬 + 월간 대시보드. 진입 조건: 부서 간 공유 SOP · 12지표 대시보드 운영.
  • L5 코칭·표준화(Coaching & Standardization) — 타 조직·업계 코칭 + 외부 표준 기여. 진입 조건: 외부 강연·컨설팅·표준 기고 3건/년+.

(L1~L2 및 L 전환 Trigger 상세는 부록 C “L1~L5 성숙도 표준 정의” 참조)

이 시리즈는 8편 전체에서 단계적 과제 대신 L3→L4→L5 역량 래더를 공통 축으로 씁니다. RAG 지식관리 주제는 특히 “L3·L4·L5가 조직 RAG 시스템의 수명을 좌우하는 절대 변수”입니다. 제가 aipm 레포에서 매일 실행하는 vault-search.sh 는 45,638 obsidian-vault 노트(13,772 인덱싱 완료)를 frontmatter 필터 + 본문 검색으로 질의하는 도구이고, vault-disposition.py는 리서치 결과물이 none / local-reusable / cross-repo-reusable 중 어느 범주에 속하는지 자동 판정해 재사용 원자를 vault로 이관하는 파이프라인입니다. compile-to-wiki.py는 raw 소스를 Claude Opus 모델로 Frontmatter v5.4 호환 wiki 노트로 자동 컴파일합니다. 이 세 개 스크립트는 조직 수준의 L3(수행) → L4(주도) → L5(자동화) 를 단일 파이프라인으로 코드화한 예시입니다. 더 중요한 것은 onedrive-vault-scan.sh — 2026-04-17 vault governance 현행화 결과, OneDrive 강의 폴더에서 작성된 교안·커리큘럼·retro가 vault blind spot을 만든 사례(llm-wiki 실험 closeout)가 확인되어, 정기 스캔을 명시적으로 CLAUDE.md에 편입했습니다. 이 blind spot 경험 자체가 “L5 코칭·표준화” 단계에서 반드시 다뤄야 할 운영 리스크의 실증 증거입니다. Part 4는 이 실전 운영 경험을 PO·PM·PL 각 역할의 L3→L5 진입 조건으로 해석합니다.

이 섹션을 읽는 두 개의 축
  • 역량(Competency) — 이 시리즈의 공통 축: L3 수행 경험 → L4 주도 산출 → L5 코칭·표준화
  • 맥락(Context) — 편별 변주 축: RAG 지식관리 주제의 L3·L4·L5 “진입 조건” 1줄 명시
  • 루브릭 근거: competency-framework-survey-prompt-pack.md

4.1 PO의 관점 — 지식 자산의 고객 가치 시나리오 결정자

PL은 본 시리즈에서 Project Lead를 가리킵니다 — 기술 스쿼드의 Team Lead가 아니라, 품질 게이트와 실험 시스템을 결정하는 역할로 정의합니다.

현황 진단

PO가 가장 먼저 마주하는 과제는 “PM 조직 지식 자산(artifacts · decisions · lessons learned · playbooks · people knowledge)을 어떤 고객에게 어떤 형태로 제공할 것인가” 를 제품 언어로 선언하는 것입니다. PM Rewired가 지적한 “PM은 이미 매일 RAG를 수행한다”는 프레이밍은 PO의 첫 결단 지점이기도 합니다 — 지금까지 “저장은 하지만 검색되지 않던” 지식 자산을 누구에게 어떤 시나리오로 제공할 것인가 (PM Rewired Medium, PMI 학습 라이브러리). 5범주 분류(Artifacts·Decisions·Lessons·Playbooks·People)와 “Time-to-Knowledge / Citation Coverage / Lessons Reuse Rate” 3개 성공 메트릭이 PO의 첫 산출물입니다.

L3 → L4 → L5 역량 래더

L 레벨 PO 역량 정의 진입 조건 (RAG 지식관리 주제)
L3 수행 경험 5범주 매트릭스 1장 + 한 시나리오의 북극성 지표 초안을 정의 지식 자산 5범주(Artifacts·Decisions·Lessons·Playbooks·People) × “누가·언제·어떤 형태로” 매트릭스 존재
L4 주도 산출 제품 로드맵 전체에 지식 자산 5범주 × 고객 시나리오 정렬 Time-to-Knowledge ≤ 5분 · Citation Coverage ≥ 80% · Lessons Reuse Rate ≥ 월 10건 북극성 지표 선언 완료
L5 코칭·표준화 조직 OKR에 Time-to-Knowledge·Lessons Reuse Rate를 내재화하고 타 PO 코칭 5범주별 대표 시나리오 3개(PM 온보딩·의사결정 재활용·RAID 초안)가 고객 여정 공식 문서로 배포

4.2 PM의 관점 — Vault·MCP·Claude Code 3-component 위임 구조 설계자

현황 진단

PM에게 RAG는 위임 경계·거버넌스 게이트·검증 주기를 Vault→MCP→Claude Code 3-component 축 위에 다시 그리는 사건입니다. 제가 관찰한 가장 흔한 실패는 평가 루프를 inference-layer 하나로만 두는 것입니다. Atlan 2026 비교가 공식화한 1,460문항 블라인드스팟은 “세 프레임워크 공통으로 검색된 컨텍스트 자체가 신뢰할 만한지 답하지 못한다” 이므로, PM은 RAGAS/TruLens/DeepEval 중 하나를 inference-layer로 고르되 context-layer 모니터링(freshness·lineage·cross-source)을 별도 예산 라인으로 분리해야 합니다 (Atlan 2026 비교, DataNucleus 2026). 여기에 EU AI Act 2026-08 고위험 의무·EU Data Act 2025-09·OWASP LLM Top 10은 “결재 라인에 이번 분기 안에 반드시 들어가야 하는 세 줄”입니다.

L3 → L4 → L5 역량 래더

L 레벨 PM 역량 정의 진입 조건 (RAG 지식관리 주제)
L3 수행 경험 3-component 위임 지도 + 이원화 검증 루프의 Delegation map 1.0 작성 Vault·MCP·Claude Code 3-component 위임 지도 1장 + OneDrive blind spot 방지 스캔 규칙 반영
L4 주도 산출 조직 단위 Inference/Context 이원화 평가 + 규제 3종 매핑 게이팅 Inference(RAGAS/TruLens/DeepEval 중 택1) + Context(freshness·lineage·cross-source) 이원화 루프 운영 중
L5 코칭·표준화 조직 표준 위임 프레임(3-component × 이원화 평가 × 규제 3종)을 코칭 EU AI Act 2026-08 + EU Data Act 2025-09 + OWASP LLM Top 10 체크리스트가 조직 표준으로 편입

4.3 PL의 관점 — Agentic Retrieval 3-Layer 품질 게이트·GraphRAG 비용 실험의 결정자

현황 진단

PL의 책무는 “Agentic Retrieval Index → Mode → Rerank 3계층에서 어떤 품질 게이트가 자동화되어야 하는가”“GraphRAG를 붙일지 말지의 의사결정을 실험 시스템으로 어떻게 반복 가능하게 만들 것인가” 를 결정하는 것입니다. PremAI 2026 Production 가이드의 임계값(p99 ≤ 200ms / Zero-result ≤ 5% / Faithfulness ≥ 0.80 / Recall@5 ≥ 0.85)과 DataNucleus 2026의 90-day 로드맵이 골든 템플릿의 원형입니다 (PremAI 2026 가이드, DataNucleus 2026). GraphRAG 1.0 비용 10-90% 절감 구간은 PL이 “hierarchical summarization · incremental indexing · domain selective 적용” 세 레버를 A/B로 돌려볼 수 있는 실험 시스템으로 운영할 때에만 실제로 나타납니다 (Graph Praxis Medium).

L3 → L4 → L5 역량 래더

L 레벨 PL 역량 정의 진입 조건 (RAG 지식관리 주제)
L3 수행 경험 한 sub-index 단위로 3계층 품질 게이트 + GraphRAG A/B 실험 1건 측정 Agentic Retrieval 3계층(Index·Mode·Rerank)별 p99·Zero-result·Faithfulness·Recall@5·Citation Precision 설계
L4 주도 산출 팀 골든 템플릿(Agentic 3계층 × Failure 8종 알람 × GraphRAG 비용 가드)을 주도 설계 GraphRAG 도입 결정 프레임(데이터·비용·도메인) 실험 완료 + 10~90% 절감 범위 측정
L5 코칭·표준화 조직 품질 시스템(이원화 평가·GraphRAG 비용 실험·stale-check 자동화) 설계·공유 bge-reranker-v2-m3 + BGE-M3/Voyage-3-large 임베딩 버전 고정 + stale-check 알람이 조직 골든 템플릿

4.4 Agentic Retrieval × 이원화 평가 × 규제 3종 — 3-role의 다른 질문지

RAG 도입 의사결정은 역할별로 서로 다른 질문지를 통과합니다. PO는 “지식 자산이 어떤 고객 시나리오로 가치를 만드는가”, PM은 “3-component 위임과 이원화 평가가 결재 라인에 정렬되는가”, PL은 “3계층 품질 게이트와 GraphRAG 실험이 골든 템플릿으로 고정되었는가”를 묻습니다. 세 역할이 같은 표를 다르게 읽는 것이 핵심입니다.

PO 질문 PM 질문 PL 질문
Agentic Retrieval 3계층 사용자는 어느 sub-index의 답변을 신뢰할 것인가 Index·Mode·Rerank 라우팅 로그가 감사 가능한가 3계층별 p99·Recall@5·Citation Precision이 golden에 있는가
GraphRAG 선택 관계 탐색이 고객 가치에 직접 연결되는가 10-90% 절감 레버가 예산 결재에 맞는가 hierarchical summarization·incremental indexing A/B가 돌아가는가
평가 이원화 Citation 있는 답변이 고객 신뢰 요건인가 RAGAS/TruLens/DeepEval 중 어느 것을 inference로 선택하는가 context-layer freshness·lineage 알람이 자동화되어 있는가
규제 3종 고위험 도메인이 제품에 포함되는가 EU AI Act 2026-08·Data Act 2025-09·OWASP LLM Top 10이 결재 라인에 있는가 DPIA·ACL·red-team 테스트가 골든 템플릿에 있는가

4.5 3-role 통합 9-cell 매트릭스 (역량 단일 축)

현황 진단 L3 수행 L4 주도 L5 코칭·표준화
PO “저장은 되지만 검색되지 않는” 5범주 지식 자산 5범주 매트릭스 + 북극성 초안 로드맵 × 고객 시나리오 정렬 OKR 내재화 + 타 PO 코칭
PM Inference-layer 단독 평가의 블라인드스팟(1,460 벤치마크) 3-component Delegation map 1.0 이원화 평가 + 규제 3종 게이팅 조직 표준 프레임 코칭
PL 3계층 품질 게이트·GraphRAG 비용 실험 부재 sub-index 1건 측정 + GraphRAG A/B 1건 골든 템플릿(3계층 × Failure 8종 × 비용가드) 이원화 평가·stale-check 자동화·공유

4.6 3-role 핸드오프 (시리즈 고정 스켈레톤)

%%{init: {'theme': 'base', 'themeVariables': {'primaryColor': '#fdf2d8', 'primaryTextColor': '#17160f', 'primaryBorderColor': '#8f5e00', 'lineColor': '#7a7868', 'secondaryColor': '#e6edfb', 'tertiaryColor': '#eeebd8', 'fontSize': '14px'}}}%%
flowchart LR
    PO["PO
지식 자산 × 시나리오 선언"] --> PM["PM
3-component 위임 + 이원화 평가"] PM --> PL["PL
3-Layer 품질 게이트"] PL --> LOOP["검증 루프
Faithfulness + Context Monitor"] LOOP --> PM LOOP -.-> PO
Voice Box #3 — “이것을 PO·PM·PL의 언어로 해석하면”
저는 RAG 도입 논의를 이렇게 세 문장으로 해석합니다. PO에게는 “우리 조직 지식 자산 5범주 × 고객 시나리오 매트릭스를 먼저 선언해 주십시오”, PM에게는 “Vault·MCP·Claude Code 3-component 위임 지도와 inference/context 이원화 평가를 이번 분기 결재 라인에 심어 주십시오”, PL에게는 “Agentic Retrieval 3계층 품질 게이트와 GraphRAG 비용 A/B 실험을 골든 템플릿으로 자동화해 주십시오”. 이 세 문장은 순서가 바뀌면 작동하지 않습니다. PO의 시나리오 선언 없이 PM이 3-component 위임을 설계할 수 없고, PM의 이원화 게이트 없이 PL이 3계층 품질 게이트를 자동화할 수 없습니다. 저는 10년 PM 코칭 현장에서 이 순서를 바꾼 팀이 “우리도 RAG는 해봤다”는 문장에서 멈추는 것을 반복해서 봤습니다.

PART 5

실전: Quick Start Pentagon (역량 진입 조건으로 읽기)

Pentagon은 Part 4의 L3·L4·L5 래더에 진입하기 위한 최소 착수 동작을 배치한 실행표입니다. RAG 지식관리 주제는 특히 “지식 자산 인벤토리·3-component 위임·이원화 평가·규제 거버넌스”의 네 축이 모두 묶여 있어서, 10개 셀 중 지금 이번 분기에 통과시키고 싶은 L 하나와 해당 셀 2~3개만 먼저 고르는 것이 가장 경제적인 전략입니다. 제가 aipm 운영에서 확인한 원칙 하나는, “OneDrive·외부 공유 드라이브 직접 산출물을 정기 스캔하지 않으면 조직 L5 자동화가 빈 공간을 만든다” 는 것입니다 (llm-wiki 실험 closeout 결과). Pentagon의 5번 셀(Month 1 · L5 진입 조건)에는 이 blind spot 방지 규칙이 반영되어 있습니다.

5.1 Quick Start Pentagon

# 시점 (L 진입 조건) PO PM PL
1 Day 1 (L3 진입 조건) 지식 자산 5범주 × 고객 시나리오 매트릭스를 한 페이지로 정의한다 Vault·MCP·Claude Code 3-component 위임 지도를 매핑한다 Agentic Retrieval 3계층별 p99·Recall@5·Citation Precision을 설계한다
2 Day 1 (L3 진입 조건) Time-to-Knowledge·Citation Coverage·Lessons Reuse Rate 3종 북극성을 정렬한다 Inference(RAGAS/TruLens/DeepEval 택1) + Context(freshness·lineage·cross-source) 이원화를 조율한다 Failure 8종(F-1~F-8) 알람 자동화를 측정한다
3 Week 1 (L4 진입 조건) 5범주 대표 시나리오 3개(온보딩·의사결정 재활용·RAID 초안)를 한 문장씩 압축한다 EU AI Act 2026-08·EU Data Act 2025-09·OWASP LLM Top 10을 게이팅한다(거버넌스 게이트) GraphRAG 도입 결정 프레임(데이터·비용·도메인)을 실험한다
4 Week 1 (L4 진입 조건) Top 5 검색 질의를 “해결된 질의 vs 미해결 질의”로 정렬한다 90-day 로드맵(Days 0-15 / 16-45 / 46-75 / 76-90)을 검증한다 bge-reranker-v2-m3 기본값 + 임베딩 버전 고정 + 재인덱싱 계획을 게이팅한다(품질 게이트)
5 Month 1 (L5 진입 조건) 조직 OKR에 Time-to-Knowledge·Lessons Reuse Rate를 선언한다 Vault·MCP·Claude Code 3-component 골든 템플릿을 매핑한다 (OneDrive 직접 산출물 정기 스캔 포함) 골든 템플릿(3계층 × Failure 8종 × GraphRAG 비용 가드)을 자동화한다

5.2 엔터프라이즈 레퍼런스 케이스 3종 — Quick Start에 얹을 검증 사례

첫째, DataNucleus 90-day 엔터프라이즈 로드맵: Days 0-15 단일 워크플로 선정(예: “PM 온보딩 문서 Q&A”) → Days 16-45 Hybrid + Reranker 구축 + Day 1부터 document-level ACL → Days 46-75 planning agent + guard/review 레이어 → Days 76-90 red-team 테스트 + 규제 문서화. 이 경로는 PM 조직에도 그대로 이식 가능하고, EU AI Act 고위험 의무(2026-08)를 앞에 두고 준비하기에 가장 현실적인 타임박스입니다 (DataNucleus 2026).

둘째, Obsidian MCP 3-component 아키텍처: Smart Connections(로컬 embedding) → smart-connections MCP Server → Claude Code/LangGraph 에이전트. NxCode 가이드는 이 조합이 “PM 개인 vault를 조직 RAG에 연결하는 마지막 한 걸음”이라고 정리했고, MotherDuck+DuckDB 가이드는 노트북 레벨에서 동일 구조를 복제하는 절차를 공개 레퍼런스로 제공합니다 (NxCode Obsidian Guide 2026, Smart Connections MCP GitHub, MotherDuck Obsidian RAG 가이드).

셋째, GraphRAG 1.0 비용 10-90% 절감 실험: hierarchical summarization + incremental indexing 조합이 2024년 $33K 수준 초기 비용을 현실적 운영 범위로 내린 결정적 레버였습니다. Legal·Financial·Healthcare 세 도메인에서 “관계 탐색형 질의에 선택적 적용” 원칙이 엔터프라이즈 기본 가이드로 정착했고, PM 조직에서는 “프로젝트 간 의사결정 관계 탐색” 시나리오가 GraphRAG의 PM 측 엔트리 포인트입니다 (Graph Praxis Medium, Programming Helper 2026).

세 사례의 공통 구조를 PM 코치 관점에서 압축하면 다음과 같습니다. (1) 단일 워크플로 × KPI × ACL을 Day 1부터 묶어 둔다. (2) 3-component 아키텍처(Corpus·MCP·Agent)를 한 장 지도로 고정한다. (3) GraphRAG는 관계 탐색형 질의에만 선택적으로 붙이고 비용 가드를 A/B 실험으로 운영한다. 이 세 가지가 빠진 RAG 도입은 예외 없이 Part 3의 Failure 8종 표로 회귀합니다. 저는 팀에게 “레퍼런스 케이스 3종을 각자 한 문장으로 요약해 주십시오”라는 과제를 먼저 드립니다. 이 요약이 가능한 팀만이 Agentic Retrieval 3계층 설계로 이동할 자격이 있습니다.

한편 엔터프라이즈 동향 문서(NStarX·Techment·GoSearch)와 MDPI 2026 시스템 리뷰, arXiv 2504.14891 종합 서베이는 “Knowledge Runtime” 이라는 관점을 공통적으로 제시합니다 — RAG를 파이프라인이 아니라 조직 기억의 런타임 플랫폼으로 설계해야 한다는 관점입니다 (NStarX 2026-2030, Techment RAG Architectures 2026, GoSearch Enterprise AI KM 2026, MDPI Enterprise RAG 리뷰 2026, arXiv 2504.14891 RAG 서베이, arXiv 2507.18910 RAG 진행·격차 리뷰). PL이 골든 템플릿에 인용할 공개 레퍼런스가 이 수준까지 공개되었다는 것은, 품질 게이트 자동화 실험이 더 이상 조직 내부 발명이 아니라 공개 표준 재조립 으로 바뀌었음을 뜻합니다.

5.3 하지 말 것

⚠️ 이 주제에서 하지 말 것
1. 지식 자산 5범주 매트릭스 없이 벡터 DB부터 고르는 것 — Failure 8종 중 F-5(Index routing miss)·F-6(Chunk mismatch)의 직접 원인입니다. Artifacts·Decisions·Lessons·Playbooks·People 5범주 × 고객 시나리오를 먼저 정의하십시오.
2. Inference-layer 평가 단독 운영 — Atlan 2026 1,460문항 벤치마크가 세 도구 공통 블라인드스팟을 공식화했습니다. Context-layer 모니터링(freshness·lineage·cross-source 일관성)을 별도 예산 라인으로 분리하십시오.
3. GraphRAG를 “보편 적용”으로 도입하는 것 — 10-90% 절감 범위는 hierarchical summarization + incremental indexing + domain selective 조합에서만 나옵니다. 관계 탐색형 질의 5건을 먼저 적지 못하면 GraphRAG는 예산 라인만 키웁니다.

마무리

RAG 지식관리 2026은 “벡터 DB 경쟁”이 아니라 “지식 자산 인벤토리 · 3-component 위임 · 이원화 평가 · 규제 거버넌스의 재설계” 입니다. PO는 지식 자산 5범주 × 고객 시나리오 매트릭스를 선언하고, PM은 Vault→MCP→Claude Code 3-component 위임과 inference/context 이원화 평가를 결재 라인에 심으며, PL은 Agentic Retrieval 3계층 품질 게이트와 GraphRAG 비용 A/B 실험을 골든 템플릿으로 자동화합니다. 이 세 가지 핸드오프를 Day 1·Week 1·Month 1의 시간축에 고정하면, 1,460문항 블라인드스팟과 10-90% 비용 구간은 예측 가능한 예산·리스크 항목으로 바뀝니다.

현장으로 가져갈 세 문장은 이렇습니다. 첫째, “우리 팀이 지난 분기에 몇 번 같은 질문에 다시 답했는지부터 셉니다” — PMI 78%가 말하는 lesson-learned register 성공률은 저장이 아니라 재사용 루프의 숫자입니다. 둘째, “Inference 평가 하나로 평가를 닫지 않습니다” — Atlan 2026의 1,460문항 벤치마크가 세 프레임워크 공통 블라인드스팟을 공식화한 이상, context-layer 모니터링을 별도 시스템으로 돌려야 합니다. 셋째, “GraphRAG는 관계 탐색형 질의 5건에만 선택적으로 붙입니다” — Graph Praxis Medium·Programming Helper 2026이 합의한 “보편 적용 아님” 원칙을 조직 결재 라인에 명시적으로 써 두십시오.

다음 편은 7편 AI 네이티브 기업 전환입니다. RAG 지식관리가 만든 “조직 기억의 런타임” 관점이 AI 네이티브 조직 전환에서 어떻게 CHO/PMO 역할 재정의로 이어지는지, 특히 Klarna의 AI 전면 대체 실험이 실패하고 “60-70/20-25/5-15 하이브리드”가 캐노니컬이 된 순간을 “치환이 아니라 3-tier 배치”로 해석해 다루겠습니다.

Voice Box #4 — 8주 시리즈 내 이 편의 자리매김
이 6편은 Delivery OS 4연작(1~4편)과 AI-SDLC(5편)가 만든 “위임·거버넌스·품질 게이트”의 축 위에 “조직 기억” 이라는 축을 한 층 더 얹는 편입니다. 1편 MCP·A2A가 “에이전트에게도 API가 생겼다”는 해석이었다면, 6편은 “우리 조직이 10년간 쌓은 기억이 드디어 API를 갖게 되었다”는 해석입니다. 그리고 이 해석의 무게는 7편·8편에서 “AI 네이티브 조직의 운영모델”“한국 기업 AX 2030” 으로 그대로 이어집니다. 제가 컨설팅 현장에서 반복 확인한 사실은 단 하나입니다. 지식 자산 인벤토리·3-component 위임·이원화 평가·규제 거버넌스 중 어느 하나라도 PO·PM·PL의 공통 언어로 정렬되지 않으면, 그 조직의 RAG 투자는 반드시 Failure 8종 표로 회귀합니다. 이 회귀를 막는 가장 저렴한 자산은 “지식 자산 5범주 매트릭스 한 장 + 3-component 위임 지도 한 장 + 이원화 평가 템플릿 한 장 + 90-day 로드맵 한 장”입니다. 네 장의 종이가 벡터 DB 선택보다 앞에 있어야 한다는 것이 이 편의 결론이자 저의 10년 PM 코칭 경험의 결론입니다.

이 시리즈 지도

이전: Post 3 Vibe Coding & 에이전틱 엔지니어링 · Post 4 멀티에이전트 시스템 2026 · Post 5 AI-SDLC 프레임워크
현재: RAG 지식관리와 PM — PM 코치가 해석하는 PO·PM·PL의 조직 자산화
다음: Post 7 AI 네이티브 기업 전환 · Post 8 한국 기업 AI 전환 전략 2030

Related Posts (기존 34편 중 보완 각도)

Tags: Agentic PM 2026 Q2, PO-PM-PL 3-role, AX Tooling, RAG, Agentic Retrieval, GraphRAG 1.0, Obsidian MCP, RAGAS, EU AI Act 2026-08

Project Research에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기