2025년 11월 13일, PMI는 `PMBOK® Guide 8판`을 공식 발간했습니다.
PM 코치가 해석하는 Agentic PM 시리즈 · 2편 (시리즈 누적 36번째)
“8주 동안 PO·PM·PL이 먼저 준비할 것 vs 나중에 키울 것”
2025년 11월 13일, PMI는 PMBOK® Guide 8판을 공식 발간했습니다. 그리고 2026년 1월부터 페이퍼백이 본격 유통되면서, PM 실무자라면 누구나 한 번쯤 “7판 원칙에 더해 무엇이 바뀌었는지”를 정리해야 하는 달이 시작되었습니다. 8판은 6대 원칙(Holistic view, Focus on value, Embed quality, Lead accountably, Integrate sustainability, Build empowered teams), 7대 성과 도메인, 5대 Focus Area, 40개 비지시적 프로세스로 정리되었고, AI를 Assistance/Augmentation/Automation 3-패턴으로 명시하면서 Estimate Activity Resources와 같은 개별 프로세스에 AI를 정식 도구·기법(T&T)으로 편입했습니다 출처.
이 숫자가 지금 중요한 이유는, 거의 같은 시점에 열린 CES 2026 결산에서 Ricardo Vargas가 PM의 역할을 Traffic Controller에서 Strategy Orchestrator로 재정의했기 때문입니다. “AI executes, but humans provide purpose” — 실행은 에이전트에게 위임하고, 방향과 가치는 인간이 결정한다는 한 줄 선언입니다 출처. 거의 동시에 학계에서는 arXiv 2601.16392가 “에이전틱 PM = 주니어 PM”이라는 명제와 함께 4-모드 운영 체계를 제시했고 출처, 2511.14136의 CLEAR 프레임워크는 정확도 일변도의 벤치마크를 Cost/Latency/Efficacy/Assurance/Reliability 5축으로 재정렬했습니다 출처.
이 글은 Agentic PM 시리즈 마감편 8편 중 2편입니다. 시리즈 이전 편에서는 MCP·A2A 프로토콜이 만든 4-레이어 스택을 다뤘고, 기존 34편에서 B-4 “AI 시대의 PMBOK 8판 훈련 전략” 이 표준·인증 관점을, B-5 “Agentic 시대, PM/PL과 엔지니어는 무엇을 준비해야 하는가” 가 capstone 성격의 로드맵을 다뤘습니다. 이 편은 그 위에 “8판 + Vargas Orchestrator + CLEAR 5축”을 PO·PM·PL 운영 모델로 통합합니다. 시리즈 공통 축인 L3→L4→L5 역량 래더를 Post 1과 같은 방식으로 사용해, 단계적 과제가 아닌 역량 진입 조건을 중심으로 해석합니다.
- PMBOK 8판의 AI 3-패턴(Assistance/Augmentation/Automation)은 기존 7판 원칙·도메인과 어떻게 연결되는가?
- “Traffic Controller → Strategy Orchestrator” 재정의는 PO·PM·PL 각 역할의 L3→L4→L5 진입 조건으로 어떻게 해석되는가?
- CLEAR 5축(Cost/Latency/Efficacy/Assurance/Reliability)과 SPM 3.0 4-모드를 어떻게 프로젝트 거버넌스 게이트에 편입하는가?
- Gartner가 예고한 40% 실패 확률을 5-요인(문제정의/데이터/오너/내부빌드/스코프)으로 분해하면 PM 조직은 어디부터 막아야 하는가?
현황 진단: PMBOK 8판과 Agentic PM의 비대칭
2024년 하반기, 저는 삼성전자 GAUSS LLM PM 모듈 Fine-tuning 프로젝트에서 5,665건의 Q&A 데이터셋을 설계했습니다. 당시 가장 어려웠던 작업은 “PM이 하루에 내리는 의사결정을 어떻게 Q&A로 구조화할 것인가”였습니다. 재미있는 발견은 이랬습니다. PMBOK 7판 12개 원칙·8개 성과 도메인으로는 에이전트에게 줄 수 있는 질문 템플릿이 잘 안 나왔고, 실제 프로젝트에서 PM이 내리는 의사결정의 70%는 표준이 정식 명명하지 않은 영역에 있었습니다. 1년이 지나 PMI가 8판에서 Focus on value·Lead accountably·Embed quality를 재정렬하고 AI 3-패턴을 공식 T&T로 편입한 순간, 저는 이 간극이 드디어 공식 언어를 얻었다고 느꼈습니다. 그러나 같은 순간 CLEAR 5축·Agentic OS 9-Layer·SPM 3.0 4-모드 같은 실무 프레임이 줄줄이 쏟아졌습니다. 독자 조직의 PM이 지금 마주한 지형은 “표준 1개 + 운영 모델 3개 + 평가 프레임 1개”가 병렬로 움직이는 상태입니다. Part 1은 이 지형의 세 층(표준·실무·평가)을 분리해서 보여드리고, 왜 세 층이 동시에 뜨는데 오히려 조직 간격은 벌어지는가 를 짚습니다.
1.1 8판은 “AI”를 넣었지만 “Agent”는 아직 넣지 않았습니다
8판은 AI를 성과 도메인 전반에 직·간접으로 배치했고, 특히 Scope 도메인에는 Process Automation T&T가 신규로 진입했습니다 출처. 다만 “agent” 또는 “autonomous”라는 단어 자체는 아직 표제 키워드로 승격되지 않았기 때문에, 실무 조직은 8판을 골격으로 두고 그 위에 Agentic PM 운영 모델을 “확장 가이드”로 얹어야 합니다. 이 비대칭이 PMBOK 8판 시험만 준비한 PM과, 실제 에이전트 프로덕션을 책임지는 PM 사이의 간극을 만듭니다.
1.2 같은 기간 벤치마크는 이미 CLEAR로 이동했습니다
엔터프라이즈 300개 태스크 실험에서, 정확도-최적화 에이전트는 파레토-효율 대안 대비 4.4~10.8배 비싸고, 단일 실행 60% 성공률이 8-run 일관성 기준 25%로 하락합니다 출처. 동일 논문은 도메인 튜닝된 접근이 CNA(Cost-Normalized Accuracy) 260.4 vs 14.5~58.0으로 압도적 우위를 보였고, CLEAR 기반 평가가 프로덕션 성공 예측력에서 정확도-only 대비 ρ=0.83 vs ρ=0.41로 거의 두 배 높은 상관을 보였다고 보고합니다.
1.3 실패 예측은 더 이상 추상적이지 않습니다
Gartner의 “2027년까지 에이전틱 AI 프로젝트 40% 이상 취소/실패” 경고가 2026년 들어 5-요인으로 구체화되었습니다. 모호한 문제 정의(온타임 22%, 명확할 때 58%), 데이터 품질 미감사(포기 사유의 60%), 오너 부재(Named owner 시 2.1배 개선), 내부 최초 빌드(7.8개월 지연), 조기 멀티에이전트 스코프 크리프(광범위 16% vs 좁은 65%) — 모두 프로젝트 착수 게이트에서 잡을 수 있는 실패입니다 출처.
PMBOK 8판이 AI를 Assistance/Augmentation/Automation 3-패턴으로 명시했을 때, 저는 이것을 “PM은 Traffic Controller에서 Strategy Orchestrator로”라는 Vargas의 문장으로 해석합니다. 제가 코칭 현장에서 PM들에게 가장 먼저 권하는 행동은 단 하나입니다. 이번 주 스프린트 회의에서 여러분이 하는 발화를 녹음해보세요. “이 작업 누가 할까요?”가 60%, “이 결과를 어떻게 검증할까요?”가 10% 이하라면, 당신은 아직 Traffic Controller입니다. Strategy Orchestrator의 발화 비율은 정반대입니다. 삼성 GAUSS 5,665 Q&A 데이터셋 라벨링 작업에서 동일한 비율 분포를 확인했고, 이 분포 자체가 L3·L4·L5 래더를 가르는 가장 단순한 관찰 지표였습니다.
개념 심층: 표준·아키텍처·평가 3층을 하나로 보기
제가 지금 이 글을 쓰고 있는 aipm 운영 레포의 핵심은 한 줄짜리 CLI 명령입니다. [pm] 워드프레스 리뉴얼 같은 자연어 한 줄을 넣으면 pm-start.sh가 자동으로 GitHub 이슈를 만들고, 브랜치와 worktree를 생성하며, start/plan/progress 세 로그 파일을 요구 시점에 맞춰 기록합니다. 완료 시점에는 pm-close.sh가 result 문서 품질을 게이팅하고 milestone 정합성까지 검증합니다. 이 사이클이 현재 pm-enhanced-prompt-pack.md v1.2로 형식화되어 있고, 2026-04 기준 234건의 [pm] 트리거 실행 데이터가 누적 분석되어 팩이 개정되었습니다. 이 한 줄짜리 CLI가 PMBOK 8판의 Executing Focus Area + Governance Domain + Monitoring Focus Area를 동시에 건드립니다. 즉, 제가 매일 사용하는 100행짜리 bash 스크립트가 8판의 세 도메인을 실제로 얼마나 꼼꼼히 커버할 수 있는지가, PMBOK 8판 + Agentic OS 9-Layer + CLEAR 5축의 통합 가능성 을 증명하는 축소판입니다. Part 2는 이 세 층을 표준·실무·평가로 분리해 보고, 다시 하나의 운영 모델로 봉합하는 경로를 제시합니다.
2.1 세 개의 층을 먼저 분리합니다
표준만 따르면 8판 시험은 통과해도 프로덕션은 못 띄우고, 운영 모델만 따르면 거버넌스 헌장이 없어서 감사에 걸립니다. 평가만 최적화하면 “정확도 잘 나오는데 왜 실패했는지” 모르는 채로 끝납니다. 세 층을 교차해서 하나의 체크리스트로 묶는 것이 PM의 첫 번째 해석 작업입니다.
2.2 SPM 3.0의 4-모드 — 위임 스펙트럼
출처: arXiv 2601.16392 원문. 논문은 fully autonomous mode를 명시적으로 배제하며, 책임(accountability)은 전 모드에서 인간 PM에게 남깁니다. PM 코치 관점에서 이 4-모드는 “위임 스펙트럼”으로 다시 해석됩니다. 가장 먼저 물을 질문은 “에이전트를 쓸 것이냐”가 아니라 “이 과업에 어느 모드를 할당할 것이냐”입니다.
2.3 Agentic OS 9-Layer와 PMBOK 성과 도메인의 교차
이 9-Layer는 ElixirClaw가 정식화한 스택이며, JIT Hydration과 Self-Evolving Loop가 “정적 RPA”와 “자가 진화 에이전트”의 구조적 분기점입니다 출처. PM이 외우어야 할 이름 열 개가 아니라, PMBOK 도메인 7개와 Focus Area 2개에 매핑되는 지도 한 장으로 기억하면 됩니다.
2.4 표준·운영·평가 3층 구조
%%{init: {'theme': 'base', 'themeVariables': {'primaryColor': '#fdf2d8', 'primaryTextColor': '#17160f', 'primaryBorderColor': '#8f5e00', 'lineColor': '#7a7868', 'secondaryColor': '#e6edfb', 'tertiaryColor': '#eeebd8', 'fontSize': '14px'}}}%%
flowchart LR
STD["PMBOK 8th
6원칙 / 7도메인 / 5Focus"] --> OPS["Agentic OS 9-Layer
L1 Context ~ L9 AgentOps"]
OPS --> EVAL["CLEAR 5축
Cost / Latency / Efficacy / Assurance / Reliability"]
EVAL -.-> STD
OPS --> MODE["SPM 3.0 4-Mode
Guided / Supervised / Collaborative / Assisted"]
MODE --> EVALℹ️ 핵심 인사이트
PMBOK 8판은Lead accountably원칙을 통해 “완전 자율 모드 배제”를 암묵적으로 정당화하고, SPM 3.0은 이를 4-모드로 구체화하며, CLEAR 5축은 그 결과를 측정합니다. 세 층은 충돌하지 않습니다. 충돌처럼 보이는 것은 PM이 세 층을 서로 다른 언어로 읽고 있을 때뿐입니다.
- PMBOK 8: Value Delivery · Stewardship · Complexity
- SAFe 6: Team Level: Iteration Execution · ART Self-Organization
- BABOK v3: 4.1 Business Analysis Planning · 11 Underlying Competencies
- SEBOK v2.x: Part 2 System Lifecycle · Planning
(전체 32-cell 매핑은 시리즈 진입 가이드의 부록 D에서 확인)
비교·한계·경고
작년 롯데이노베이트(Lotte Innovate)에서 Generative AI PM 커리큘럼 재설계 자문을 하면서 제가 반복해서 마주친 장면이 있습니다. “AI 에이전트를 쓰겠다”는 결정은 임원 한 마디에 내려지지만, “이 에이전트가 실패했을 때 누가 책임자로 지정되어 있는가”에 대한 답은 언제나 공란입니다. 저는 같은 질문을 삼성전자 기술주재원/Global Expert 세션(세션당 20+건 산출물), SKT Agent/Skill(83건 PMO 산출물), SKAX PM 2-Day 워크숍에서도 던져 보았고, 답이 비슷했습니다. Gartner 5-요인(문제정의·데이터·오너·내부빌드·스코프) 중 “Named owner 시 2.1배 개선” 은 이 빈칸의 정량화입니다. PMBOK 8판 Lead accountably 원칙이 말하고 싶었던 것도 정확히 이 지점이었고, SPM 3.0이 “fully autonomous mode”를 명시적으로 배제한 이유도 동일합니다. Part 3은 전통 PM vs Agentic PM을 2열로 비교하고, Gartner 5-요인을 실패 유형 매트릭스로 해부하며, 멀티에이전트 4-워크플로 패턴에 내재된 “과잉 설계 경고”를 짚습니다. 독자 조직의 Named owner 공란이 몇 개 남아 있는지 세어 보시길 권합니다.
3.1 전통 PM vs Agentic PM — 2열 카드
이 대조표는 원본 리서치 §PM 관점에서 재구성한 것입니다. 오른쪽 열이 8판 위에 얹히는 “확장 레이어”의 전부입니다. 왼쪽 열을 버리는 것이 아니라, 왼쪽 열을 유지하면서 오른쪽 열을 추가로 쌓는 작업이 2026년 PM의 일입니다.
3.2 실패 모드 — Gartner 5-요인 분해
출처: agentcorps 2026 분석 원문. Deloitte 역시 “에이전틱 AI는 silver bullet이 아니다”라고 결론지었고 출처, MAST 실패 분류학은 멀티에이전트 실패 모드 14개 중 41.8%가 “시스템 설계·명세 결함”이라고 지목했습니다(Post 4에서 상세 다룸).
3.3 4-워크플로 패턴과 과잉 설계 경고
Stack AI 2026 가이드 원문. Vellum의 ReAct 비교 분석은 Plan-Execute가 ReAct 대비 토큰을 약 30% 절감한다고 보고합니다 출처. 제가 현장에서 가장 자주 보는 함정은 Day 1부터 Swarm을 꿈꾸는 팀입니다. 9-Layer 중 L1~L3만 해결되면 Single Agent 하나로 전사 가치의 60%는 만들어냅니다.
제가 지난 6개월간 대기업 PMO 네 곳(삼성·LG·SKT·롯데이노베이트)에서 반복적으로 마주친 장면이 있습니다. 첫째 주에 팀이 멀티에이전트 아키텍처 다이어그램을 그립니다. 둘째 주에 LangGraph 예제를 돌립니다. 넷째 주에 “왜 데모는 되는데 프로덕션은 안 되지?”라는 질문이 나옵니다. 제가 늘 되묻는 질문은 같습니다. “이 에이전트가 실패했을 때, 누가 책임자로 지정되어 있습니까? pass@k와 PAS는 누가 측정합니까? 이 두 이름이 공란이라면, 당신이 만든 건 멀티에이전트가 아니라 멀티 장애 지점입니다.” Gartner 5-요인 중 세 번째,
Named owner 부재가 여전히 2026년의 1번 원인입니다.
PO·PM·PL 3-Role Translation ⭐
- L3 수행(Performance) — 팀 단위 반복 운영 + Named Owner 지정 + 기본 가드레일. 진입 조건: 주 5회 이상 AI 협업 · SOP 1건.
- L4 주도(Leadership) — 조직 표준 내재화 + OKR 정렬 + 월간 대시보드. 진입 조건: 부서 간 공유 SOP · 12지표 대시보드 운영.
- L5 코칭·표준화(Coaching & Standardization) — 타 조직·업계 코칭 + 외부 표준 기여. 진입 조건: 외부 강연·컨설팅·표준 기고 3건/년+.
(L1~L2 및 L 전환 Trigger 상세는 부록 C “L1~L5 성숙도 표준 정의” 참조)
이 시리즈는 8편 전체에서 단계적 과제(Day 1·Week 1·Month 1) 대신 L3→L4→L5 역량 래더를 공통 축으로 씁니다. Post 1에서 이유를 밝혔지만 여기서 한 번 더 짚으면, 제가 삼성·LG·SKT·롯데·SK쉴더스 다섯 현장에서 확인한 것은 “Day 1에 뭘 할까”의 답이 조직마다 완전히 다르다는 것입니다. 같은 “에이전트 위임 시나리오 3개 정의”라는 행동도 A 조직에서는 Day 1, B 조직에서는 이미 6개월 전 완료, C 조직에서는 내년 Q2에나 가능합니다. 반면 L3(수행 경험) → L4(주도 산출) → L5(코칭·표준화) 는 조직 성숙도와 상관없이 같은 방향을 가리킵니다. 저는 이 래더를 삼성 GAUSS 5,665 Q&A 데이터 라벨링, LG PM Competition 68명 인증 설계, SKT PMO 83건 산출물 심사 세 번 모두 같은 형태로 사용했습니다. PMBOK 8판과 결합하면 구체적 의미가 생깁니다 — L3는 8판 40 프로세스 중 본인 담당 영역의 T&T를 1회 적용, L4는 팀 단위 표준 문서화, L5는 조직 표준 + 타 조직 코칭. 이 편의 Part 4는 이 래더 위에 PMBOK 8 Governance 도메인·Agentic OS L8 Governance Engine·SPM 3.0 4-모드·CLEAR 5축을 얹어 PO·PM·PL 각각의 진입 조건을 기술합니다.
- 역량(Competency) — 이 시리즈의 공통 축: L3 수행 경험 → L4 주도 산출 → L5 코칭·표준화
- 맥락(Context) — 편별 변주 축: 각 편의 주제별로 L3·L4·L5의 “진입 조건” 1줄 명시
- 루브릭 근거:
competency-framework-survey-prompt-pack.md— L1 “들어본 적” → L2 “설명 가능” → L3 “수행 경험” → L4 “주도 산출” → L5 “코칭·표준화”
4.1 PO의 관점 — 시나리오·비전·성공 메트릭 결정자
현황 진단
PMBOK 8판이 Focus on value 원칙을 강조하면서 PO의 무게는 “백로그 순서 정렬”에서 “가치 정의 자체”로 이동했습니다. 동시에 Agentic OS 9-Layer의 L2 Intent Layer가 API를 대체하는 순간, PO는 “어떤 시나리오에 에이전트를 위임할지”를 제품 가치 관점에서 압축해야 합니다 출처. Gartner 5-요인 중 “모호한 문제 정의”와 “오너 부재”는 정확히 PO 공백에서 발생합니다.
L3 → L4 → L5 역량 래더
4.2 PM의 관점 — 위임·거버넌스·검증 루프 설계자
현황 진단
Vargas의 “AI executes, humans provide purpose”는 PM의 실무 해석으로는 “위임 경계를 매핑하고, 거버넌스 게이트를 설계하고, 검증 루프를 돌리는 사람”입니다 출처. PMBOK 8판 Governance 도메인과 Agentic OS L8 Governance Engine이 바로 이 지점에서 만나고, SPM 3.0 4-모드는 위임 스펙트럼을 매핑한다는 동작으로 구현됩니다. 제가 aipm 레포의 pm-start.sh + pm-sync.sh + pm-audit.sh + pm-close.sh 사이클을 하루에 2~3회 돌리는 이유도 같습니다 — 위임·거버넌스·검증 루프를 한 사이클 안에 자동화해야 PM이 Strategy Orchestrator 자리에 앉을 시간이 생기기 때문입니다.
L3 → L4 → L5 역량 래더
4.3 PL의 관점 — 품질 게이트·실험 시스템 결정자
PL은 본 시리즈에서 Project Lead를 가리킵니다 — 기술 스쿼드의 Team Lead가 아니라, 품질 게이트와 실험 시스템을 결정하는 역할로 정의합니다.
현황 진단
CLEAR 프레임워크가 정확도 60% → 8-run 25% 일관성 붕괴를 드러낸 순간, PL의 역할은 “코드 리뷰어”에서 “품질 게이트 결정자”로 재정의됩니다 출처. 9-Layer OS의 L9 AgentOps와 L8 Governance Engine은 PL이 게이팅 기준을 설계한다는 동작으로 운영됩니다. MAST의 14-유형 실패 중 41.8%가 “시스템 설계·명세 결함”이라는 보고는, PL 공백이 그대로 시스템 공백이라는 뜻입니다.
L3 → L4 → L5 역량 래더
4.4 3-role 통합 테이블 (9-cell, 역량 단일 축)
4.5 3-role 핸드오프 (시리즈 고정 스켈레톤)
%%{init: {'theme': 'base', 'themeVariables': {'primaryColor': '#fdf2d8', 'primaryTextColor': '#17160f', 'primaryBorderColor': '#8f5e00', 'lineColor': '#7a7868', 'secondaryColor': '#e6edfb', 'tertiaryColor': '#eeebd8', 'fontSize': '14px'}}}%%
flowchart LR
PO["PO
시나리오 정의"] --> PM["PM
위임 매핑"]
PM --> PL["PL
품질 게이트"]
PL --> LOOP["검증 루프"]
LOOP --> PM
LOOP -.-> PO저는 PMBOK 8판이 40개 프로세스로 돌아온 것이, 표준이 실무를 따라잡은 반가운 사건이라고 생각합니다. 다만 표준은 여전히 “agent”라는 단어를 쓰지 않습니다. 이 공백을 PO·PM·PL 세 사람이 L3→L4→L5 래더로 나눠서 메우는 것이 2026년 2분기의 일입니다. PO는 “어떤 가치를 위임할지”를 압축하고, PM은 “어떻게 위임할지”를 매핑하고, PL은 “무엇으로 통과시킬지”를 설계합니다. 이 세 가지가 한 문장씩 정렬되지 않은 프로젝트는, Gartner의 40% 실패 확률 안쪽으로 스스로 걸어 들어갑니다. 반대로 세 문장이 서로 꼬리를 물면, 같은 8판 위에서도 완전히 다른 속도의 팀이 됩니다. 저는 이 차이가 도구의 차이가 아니라 해석의 차이라고 믿습니다.
실전: Quick Start Pentagon (역량 진입 조건으로 읽기)
Pentagon은 Part 4의 L3·L4·L5 래더에 진입하기 위한 최소 착수 동작을 Day 1·Week 1·Month 1 축으로 배치한 실행표입니다. 즉 “Day 1에 뭘 하라”가 아니라, “L3에 진입하려면 Day 1까지 이것은 되어 있어야 한다”로 읽어 주십시오. 롯데이노베이트 PM academy 재설계에서 수강생들이 가장 자주 묻는 질문이 “어디부터 시작할까요?”였습니다. 저는 늘 같은 답을 드립니다 — “10개 셀을 전부 밀지 말고, 지금 이번 분기에 통과시키고 싶은 L 하나를 먼저 고르십시오.” Pentagon은 그 선택을 돕는 도구입니다. PO/PM/PL 세 열이 수평으로 정렬되어 있어, 한 L 단계를 가로지르면 세 역할이 같은 주간에 무엇을 같이 하고 있어야 하는지가 보입니다. 다음 표의 10개 셀 중 지금 독자 조직에 가장 빠진 셀 2~3개를 고르시면 됩니다.
5.1 Quick Start Pentagon (5×3×3)
각 셀의 동사는 역할별 허용 동사만 사용했습니다(PO: 정의/정렬/압축/선언/결단, PM: 위임/검증/조율/게이팅/매핑, PL: 설계/실험/게이팅/측정/자동화). “게이팅한다”는 PM(거버넌스)과 PL(품질) 공통 허용이며, 본 표에서는 각각의 수식어로 맥락을 명시했습니다.
5.2 하지 말 것 (Callout Red)
⚠️ 이 주제에서 하지 말 것
1. Day 1부터 멀티에이전트 Swarm을 꿈꾸지 마십시오. 단일 에이전트 프로덕션 검증 없이 확장하면 온타임 성공률이 65% → 16%로 주저앉습니다 출처.
2. 정확도만 최적화한 에이전트 선택을 하지 마십시오. 파레토-효율 대안 대비 4.4~10.8배 비쌉니다 출처.
3. 책임자 없이 착수하지 마십시오. Named owner 부재 시 2.1배 지연됩니다. 착수 게이트에서 PO 이름을 문서 표지에 박아야 합니다 출처.
핵심 수치 3개 1. PM 조직 생산성 변화율 (Named Owner 기준 2.1배 개선 벤치마크 대비 현 위치) 2. AI 프로젝트 실패율 = 현재 40% (Gartner 2027 예측) → 자사 목표 <20% 3. CLEAR 5축 (Context·Language·Ethics·Application·Reflection) 월간 평가 점수 경영 질문 3개 1. 우리 조직의 PMBOK 8판 Operating Model 전사 적용 시기와 범위? 2. Agentic OS 9-Layer 중 현재 운영 중 몇 개 레이어이며, 다음 분기 추가 3개는? 3. CLEAR 평가 발표 대상을 이사회·고객·규제기관 중 어디까지 확대할 것인가? 결단사항 3개 1. 2026 Q3 PMO 재편 공식 안건 상정 (Named Owner 원칙 전사 적용) 2. PMP 8판 교육 전사 롤아웃 (CEO 타운홀 킥오프 포함) 3. Agentic OS 9-Layer 도입 12개월 로드맵 이사회 승인
8판은 골격이고, Agentic OS 9-Layer는 근육이며, CLEAR 5축은 혈류입니다. 이 세 층을 한 번에 읽어내는 PM이 2026년의 Strategy Orchestrator입니다. 다음 편(Post 3)에서는 “Vibe Coding과 에이전틱 엔지니어링”이라는 주제로, 오늘 그린 3-role 지도를 엔지니어링 현장의 품질 게이트로 한 단계 더 내려보내겠습니다.
8주 시리즈에서 이 2편은 “운영 모델의 원전”에 해당합니다. Post 1이
프로토콜(MCP·A2A)로 에이전트의 입을 열었다면, Post 2는 운영 모델(PMBOK 8 + Agentic OS + CLEAR)로 조직의 뼈대를 세운 것입니다. 기존 34편과의 관계는 이 지점에서 고정됩니다 — B-4의 PMBOK 8판 훈련 전략은 표준의 교육 관점이었고, 이 편은 운영 관점입니다. B-3의 역량 변화 논의는 L3·L4·L5 래더라는 구체 축을 이 편에서 얻고, B-5 capstone은 “PM이 L5로 갈 때 어디까지 가야 하는가”의 경로를 얻습니다. Post 3 Vibe Coding, Post 4 멀티에이전트, Post 5 AI-SDLC는 모두 오늘 그린 이 뼈대 위에 근육을 붙이는 작업입니다.
이 시리즈 지도
이전: Post 1 — MCP·A2A 에이전트 프로토콜 (2026-04-20 발행)
현재: 에이전틱 프로젝트 관리 — PMBOK 8판 맥락에서 PM 코치가 해석하는 PO·PM·PL 운영 모델
다음: Post 3 Vibe Coding & 에이전틱 엔지니어링 (2026-05-04) · Post 4 멀티에이전트 시스템 2026 (2026-05-11) · Post 5 AI-SDLC 프레임워크 (2026-05-18)
Related Posts (기존 34편 중 보완 각도)
- B-4 · AI 시대의 PMBOK 8판 훈련 전략 — 본 편이 운영 관점이라면 B-4는 표준의 교육·인증 관점
- B-3 · AI 시대, PM/PL의 역량이 근본부터 바뀌어야 하는 이유 — 본 편 L3→L5 래더의 역량 변화 원전
- B-5 · Agentic 시대, PM/PL과 엔지니어는 무엇을 준비해야 하는가 — Track B capstone, 본 편이 세운 뼈대 위에 경로를 제시
- X-1 · AI/AX 2030 전략: McKinsey, BCG, Accenture, Deloitte, Gartner 교차 분석 — 본 편의 Gartner 5-요인 근거 원전
- G-1 · 삼성전자 GAUSS PM Agent: 효과적 설계로 주니어 PM 지원하기 — 본 편이 인용한 5,665 Q&A 데이터셋의 제품화 사례
Tags: Agentic PM 2026 Q2, PO-PM-PL 3-role, AX Delivery OS, PMBOK 8th, CLEAR, Strategy Orchestrator
- P-0 7인의 사고 체계 종합 프레임워크
- P-1 Karpathy: 제약 설계 + 닫힌 루프
- P-2 Sutskever: 압축이 곧 지능이다
- P-3 Hassabis: 제1원리 분해
- P-4 LeCun: 세계 모델 + 예측
- P-5 Hinton: 거버넌스 + 자기부정
- P-6 Ng: AI 전환 플레이북
- P-7 Fei-Fei Li: 인간중심 설계
- P-8 Builders 종합: Boris·Cat·Truell·Masad·Murati·Brockman
- P-9 Operators 종합: Altman·Amodei·Nadella·Pichai·Zuckerberg·Suleyman
- P-10 Hardware 양강: Jensen Huang · Lisa Su
- P-11 PO·PM·PL 역량 통합: 5-Domain × 3-Level