SITE SEARCH

검색

사이트 전체 글을 빠르게 찾을 수 있습니다.

RSS FEED

RSS 구독

RSS 리더에서 Project Research의 새 글을 바로 받아볼 수 있습니다.

EMAIL SUBSCRIBE

이메일 구독

새 글을 이메일로 받아봅니다. RSS는 별도 RSS 아이콘을 눌러 동일한 크기의 패널에서 열 수 있습니다.

이메일로 블로그 구독하기

이 블로그를 구독하고 이메일로 새글의 알림을 받으려면 이메일 주소를 입력하세요







AI 전문가 탐구 시리즈 D편 — 하드웨어 양강이 그린 물리·경제 제약

시리즈

AX 인프라 양강 — Jensen Huang vs Lisa Su, 풀스택 진출과 token 경제

이 편이 답하는 질문
  • Huang의 “tokens per kilowatt”과 Su의 “every app will have an agent” — 양강이 같은 시대에 다른 신경제 지표를 제시할 때, PM의 ROI 계산식 자체가 어떻게 변해야 하는가?
  • NVIDIA의 “풀스택 진출”(Nemotron+OpenClaw+NemoClaw+Agent Toolkit)과 AMD의 “open ecosystem+파트너” 전략 차이가, 기업의 “vendor lock-in 안정성”과 “multi-vendor 유연성” 선택을 어떻게 강제하는가?
  • “메모리 bandwidth(AMD MI400: 19.6TB/s)”와 “종합 스택 우위(NVIDIA Rubin)”의 차이가 feature 개발 일정에 언제 “silent constraint”가 되는가?
  • 데이터센터 1GW(NVIDIA)·6GW(AMD 계약) 단위의 power 제약이, product roadmap의 분기별 feature 출시 기한을 어떻게 결정하는가?
이 시리즈를 읽는 세 개의 눈
  • PO: backlog 메타데이터에 “token 비용 추정”을 필수 항목으로 추가하고, feature의 1요청당 token 수·사용자당 월 요청 수·단가를 직접 산출하라.
  • PM: 6개월마다 “vendor lock-in matrix”(NVIDIA·AMD·자체) 1장을 작성해 자사 stack이 hardware 양강의 다음 결정에 얼마나 노출되어 있는지 정량화하라.
  • PL: 데이터센터 build-out 일정을 “product roadmap의 silent constraint”로 인식하고, 아키텍처 리뷰·용량 계획·전력 예약을 product planning 사전 승인 게이트로 확립하라.

[시리즈 D — Tier 4 Hardware Enablers 종합편] “tokens per kilowatt가 진정한 자원 한계다.” Huang의 한 문장이 product PM의 ROI 계산식 자체를 다시 쓴다. NVIDIA Nemotron+OpenClaw vs AMD MI400/MI500. 양강의 풀스택 진출이 위층(Builders·Operators)에 어떤 압력을 주는가.


들어가며 — “왜 PM이 GPU와 전력을 알아야 하나”

지금까지 시리즈 A에서 학자(이론), B에서 빌더(도구), C에서 운영자(회사)를 살펴봤다. 그렇다면 시리즈 D는 왜 필요한가?

답은 단순하다. 위 세 레이어가 모두 작동하려면, 그 아래 GPU와 전력이 있어야 한다. Karpathy의 이론도, Boris의 도구도, Altman의 회사도, 결국 NVIDIA·AMD가 만든 칩이 데이터센터에서 돌아가야 가능하다.

PM 입장에서 이 사실은 더 무겁게 다가온다. 우리가 만드는 feature의 가능성·비용·속도가 결국 GPU와 전력에 의해 정해진다. “왜 이 feature는 다음 분기까지 못 만드나?”라는 질문의 답이 종종 “데이터센터 capa 부족” 또는 “이 모델은 latency가 커서 user 100만 명 못 받음”이다. 그것을 모르고 PRD를 쓰면, 1년 후 production에서 막힌다.

PM 코치의 컨설팅 경험 — Samsung·LG·KT 등 한국 대기업 임원진에게 가장 어려운 학습은 “AI는 software가 아니라 인프라 사업”이라는 깨달음이다. 기존 SaaS는 server 비용이 cost의 5% 이내였지만, AI feature는 token cost가 50%를 넘는 일이 흔하다. 이를 모르고 PRD를 짜면 출시 후 ROI가 마이너스로 나오고 임원진이 흔들린다. 그래서 PM은 시리즈 D를 반드시 알아야 한다.

본 글은 그 인프라 두 거장 — Jensen Huang(NVIDIA)와 Lisa Su(AMD) — 의 2025-2026년 결정을 PM의 언어로 다시 읽는다.


Part 1 — 왜 양강을 한 시점에 묶어 보는가

1.1 시대적 배경 — “칩만 잘 만들면 된다는 시대의 종료”

2024년까지의 NVIDIA와 AMD는 반도체 회사였다. 좋은 GPU를 만들어 데이터센터에 팔면 됐다. 그러나 2025-2026년 두 회사 모두 이 정의를 깨고 소프트웨어 풀스택으로 진출했다.

  • NVIDIA: Nemotron(모델) + OpenClaw(agent 오케스트레이션) + NemoClaw(governance) + Agent Toolkit(파트너 ecosystem)
  • AMD: ROCm + MI400/MI500 로드맵 + Meta 6GW 계약 + agent-supporting compute 메시지

두 회사가 동시에 “칩 + 모델 + orchestration + governance” 풀스택을 외친다. 위층 빌더·운영자 입장에서는 인프라 공급자가 갑자기 경쟁자가 될 수도 있는 상황이다. PM 입장에서는 자사 stack의 어느 layer가 NVIDIA·AMD에 흡수될 위험인지 재평가해야 한다.

1.2 양강 한눈에 보기

인물 회사 결정적 한 문장
Jensen Huang NVIDIA CEO “tokens per kilowatt가 진정한 자원 한계다.” (GTC 2026)
Lisa Su AMD CEO “every single application will have an agent.” (Analyst Day 2025-11)

위층(Tier 1-3)의 모든 비전은 이 두 사람이 만드는 인프라 위에서 작동한다.

graph TB
    L1[Tier 1 학자
이론·논문] L2[Tier 2 빌더
도구·SDK] L3[Tier 3 운영자
회사·시장] L4[Tier 4 인프라 ◄ 본 시리즈
NVIDIA · AMD] L5[데이터센터
GPU · 전력] L4 --> L5 L5 -->|"capacity"| L1 L5 -->|"capacity"| L2 L5 -->|"capacity"| L3 style L4 fill:#fff4e6,stroke:#d79b00,stroke-width:3px style L5 fill:#cce5ff

PM 코치 시각: 시리즈 A·B·C는 “무엇을, 어떻게“를 다뤘다. 시리즈 D는 “얼마나, 언제까지“를 정의한다. 시간·비용·capacity의 silent constraint다.

1.3 이 글에서 다룰 4가지 질문

  1. 양강은 무엇을 어떻게 만들었는가? (Part 2)
  2. 두 회사가 공유한 패턴은? (Part 3)
  3. NVIDIA vs AMD는 어떻게 갈라지는가? (Part 4)
  4. PM이 자기 직무에 무엇을 가져갈 수 있는가? (Part 5)

Part 2 — 양강 매트릭스 (핵심 시그널 비교)

Part 1에서 NVIDIA·AMD 양강이 동시에 풀스택으로 진출한 시대적 배경을 살폈다. Part 2에서는 두 회사를 세 가지 축으로 비교한다. 첫째 하드웨어 로드맵 (1년 사이 두 세대를 갈아엎는 칩 전쟁), 둘째 소프트웨어 풀스택 진출 (NVIDIA가 칩 회사를 넘어 platform 회사로 변신한 사건), 셋째 비즈니스 시그널 (시장 규모·파트너·메시지)다.

세 축이 중요한 이유는 각각이 PM의 다른 의사결정 영역에 영향을 주기 때문이다. 하드웨어 로드맵은 product roadmap의 silent constraint(모델 generation이 바뀌면 latency·cost가 달라짐), 소프트웨어 풀스택 진출은 자사 stack의 vendor lock-in risk(NVIDIA OpenClaw가 자사 자체 orchestration platform을 흡수할 위험), 비즈니스 시그널은 자사가 어떤 ecosystem에 속하는가의 전략 결정(NVIDIA Agent Toolkit 17개 파트너에 들어갈지)다.

본 Part를 읽고 나면 한 가지 사실이 분명해진다. NVIDIA·AMD는 더 이상 “구매하는 칩”이 아니라 “전략 파트너 또는 잠재 경쟁자”다. 한국 대기업 PM이 이 인식 전환을 언제 하느냐가, 향후 3년 자사 AI stack의 운명을 결정한다.

2.1 하드웨어 로드맵 — “1년 사이 두 세대를 갈아엎는다”

gantt
    title NVIDIA vs AMD 하드웨어 로드맵 (2024-2027)
    dateFormat YYYY-MM
    axisFormat %y-%m
    tickInterval 3month
    section NVIDIA
    Blackwell B200          :2024-01, 2025-12
    Vera Rubin              :2026-01, 2026-12
    Rubin Ultra             :2027-01, 2027-12
    section AMD
    MI300-MI350             :2025-01, 2026-03
    MI400 HBM4 19.6TB       :2026-03, 2026-12
    MI455X 2nm              :2026-04, 2027-06
    MI500                   :2027-01, 2027-12
항목 NVIDIA (Huang) AMD (Su)
현세대 Blackwell (B200, 2024) MI300/MI350 (2025)
차세대 Vera Rubin (CES 2026 발표, 1GW Thinking Machines 계약) MI400 (HBM4, 19.6TB/s, 2026)
다음 세대 Rubin Ultra MI455X (CES 2026, 세계 최초 2nm AI GPU)
미래 (TBD 차세대) MI500 (2027) — 4년간 1000× 성능 향상
신경제 anchor “tokens per kilowatt” “agent-supporting compute” 수요

2.2 소프트웨어 풀스택 진출

NVIDIA가 hardware 회사에서 풀스택 platform 회사로 전환한 게 가장 큰 사건이다.

flowchart TB
    subgraph "NVIDIA 풀스택 (2026)"
        N1[Nemotron
base intelligence] N2[OpenClaw
agent orchestration] N3[NemoClaw
security/governance] N4[Agent Toolkit
17+ 파트너] N5[Blackwell · Rubin
Hardware] N1 --> N4 N2 --> N4 N3 --> N4 N5 --> N1 N5 --> N2 end subgraph "AMD 진입 (추격)" A1[ROCm + 파트너] A2[MI300/400/500] A3[Meta 6GW 계약] A2 --> A1 end
레이어 NVIDIA AMD
Base intelligence (모델) Nemotron (open weights) (TBD – 자체 모델 부족)
Agent orchestration OpenClaw — “역사상 가장 빠른 OSS” (Linux 비유) (ROCm + 파트너)
Security/Governance NemoClaw (TBD)
Agent Toolkit 오픈 모델 + 도구 (Adobe·Atlassian·SAP·Salesforce·ServiceNow 등 17+ 파트너) (개별 파트너십)
Hardware Blackwell·Rubin MI300·MI400·MI500

2.2.1 본인 목소리로 듣는 양강 — 주요 YouTube 영상

하드웨어 양강의 의사결정은 분기 키노트 하나로 산업 전체가 움직인다. 두 사람의 가장 영향력 있는 키노트 1편씩을 골랐다. 각 1편을 끝까지 보면, 자사 product roadmap의 1-2년 후 GPU·power·token 비용 가정이 어떻게 달라져야 할지 명확해진다.

인물 영상 주제 매칭 길이/시점/조회수
Jensen Huang NVIDIA GTC Washington, D.C. Keynote (NVIDIA 공식) Blackwell·Rubin 로드맵, “tokens per kilowatt” 경제, Agent Toolkit 1h43m / 2025-10 / 약 9.78M views
Lisa Su AMD at CES 2026 Keynote (AMD 공식) MI455X·Helios rack, open ecosystem, “every app will have an agent” 2h6m / 2026-01 / 약 169K views

PM 코치 권고 — 두 영상을 같은 주에 연속 시청하면 하드웨어 양강의 framing 차이가 즉시 보인다. Jensen은 “한 회사가 풀스택을 다 한다”는 vision을 강조하고, Lisa는 “open ecosystem이 더 빠르게 커진다”는 비전을 강조한다. 자사 product가 어느 진영의 vision을 채택할지 — vendor lock-in의 안정성을 살지, multi-vendor의 유연성을 살지 — 1년 안에 결정해야 한다. 두 키노트는 그 결정의 양 끝점을 가장 선명하게 보여준다.

2.3 비즈니스 시그널 — “AI infrastructure trillions of dollars”

항목 NVIDIA AMD
비전 시장 규모 “AI infrastructure trillions of dollars” (Computex 2025) 향후 3-5년 매년 35% 성장
AI 데이터센터 성장 (압도적, 시장 지배) 매년 80% 성장 (가속)
핵심 파트너 Meta·Microsoft·Google·Anthropic·OpenAI 등 거의 전부 Meta 6GW 계약 (2026), 신규 enterprise
차별화 메시지 “AI factory” — 산업 규모 인프라 “Renaissance of compute” — 메모리 bandwidth 우위

PM 코치의 컨설팅 노트 — 한국 대기업 IT 임원진에게 NVIDIA의 “AI factory” 메시지가 가장 큰 충격이다. 우리는 데이터센터를 “비용 항목”으로 본다. NVIDIA는 그것을 “산업 규모의 token 생산 공장“으로 재정의했다. 이 프레임 시프트가 5-10년 안에 한국 SI 산업의 사업 모델을 통째로 바꾼다. PM은 자사 product가 그 token 공장의 어떤 고객인지 명확히 정의해야 한다.


Part 3 — 양강이 공유한 4가지 패턴

NVIDIA와 AMD는 기술적으로는 정반대 진영(NVIDIA closed CUDA vs AMD open ROCm)에 가깝다. 그러나 2025-2026년의 결정을 보면 4가지 행동 패턴을 공유한다. 본 Part는 그 4가지를 추출하여 PM에게 어떤 의미인지를 정리한다.

가장 충격적인 패턴은 “하드웨어 → 풀스택 진출”이다. NVIDIA가 모델·orchestration·governance까지 자체 제공하기 시작한 사건은, 단순히 NVIDIA의 사업 확장이 아니라 위층 빌더·운영자의 layer 일부가 흡수될 수 있다는 신호다. 두 번째 패턴 “Token = 새 자원 단위”는 PM의 ROI 계산식 자체를 바꾼다. 세 번째 “Agent-Augmentation 의무”는 모든 기존 feature의 backlog를 다시 검토하게 만든다. 네 번째 “Open Agent Ecosystem”은 자사 product가 ecosystem 안의 어디에 위치하는지를 명시해야 한다.

본 Part 4가지를 다 읽고 나면, PM은 자사 stack을 “NVIDIA·AMD의 다음 분기 결정에 얼마나 노출되어 있는가” 관점에서 다시 평가하게 된다. 이 평가가 향후 6개월 backlog 우선순위를 결정한다.

패턴 1 — 하드웨어 → 풀스택 진출

Huang의 NVIDIA는 더 이상 칩 회사가 아니다. 모델 + 오케스트레이션 + governance까지 자체 제공한다. Su의 AMD도 ROCm + 파트너 ecosystem으로 같은 방향을 추격한다.

PM 코치 시각 — 한국 대기업 stack에서 가장 먼저 위협받는 layer는 무엇인가? 컨설팅 경험상 MLOps·orchestration platform 자체 구축 프로젝트가 가장 위험하다. NVIDIA OpenClaw가 “역사상 가장 빠른 OSS”로 확산되면, 자사 자체 platform은 1-2년 안에 시장 표준에서 밀린다. 자체 구축이 정당화되려면 NVIDIA·AMD가 절대 안 만들 차별화 가치가 명확해야 한다.

패턴 2 — Token = 새 자원 단위

Huang의 “tokens per kilowatt”는 단순 수사가 아니다. 데이터센터의 전력 한계가 token 생산성을 결정한다는 새 수학.

flowchart LR
    A[전력 1MW] -->|"GPU 효율"| B[초당 토큰 X개]
    B -->|"모델 효율"| C[task 완수율 Y%]
    C -->|"비즈니스 가치"| D[ROI = $/1M token]
    style A fill:#cce5ff
    style D fill:#90EE90

PM 시사점: feature 단위 ROI를 달러가 아닌 token·power 단위로 계산하는 능력이 PM의 새 literacy다. “이 feature는 1요청당 50k token, 사용자당 월 100요청 = 5M token, 단가 $X” — PM이 직접 산출.

패턴 3 — Agent-Augmentation 의무

Su의 “every app will have an agent”는 PM의 backlog 의무다. 기존 application도 agent assist 검토를 PRD에 포함해야 한다.

PM 코치 권고 — 컨설팅 현장에서 “기존 200개 feature 중 어느 것에 agent를 붙여야 하나” 같은 질문이 거의 매번 나온다. 답은 “전부 다 후보로 두고, ROI 기준 우선순위 매기는 표를 1주일에 하나씩 작성”이다. 1년이면 모든 feature를 한 번 검토하게 된다. 이를 안 하면 경쟁사가 한다.

패턴 4 — Open Agent Ecosystem

NVIDIA Agent Toolkit이 Adobe·Atlassian·SAP·Salesforce·ServiceNow 등 17+ 파트너를 묶었다. Foundation은 NVIDIA, Application은 SaaS 회사의 분업이 표준화되고 있다.

PM 시사점: 자사 product가 NVIDIA(또는 AMD) ecosystem 안의 어디에 위치하는지 명확히 정의. 외곽이면 위험, 내부이면 leverage.


Part 4

양강 간 긴장 관계

공통 패턴(Part 3)이 NVIDIA와 AMD를 같은 방향으로 묶었다면, 차이점(Part 4)은 두 회사를 다른 진영으로 갈라놓는다. 본 Part는 세 가지 긴장 축 — 메모리 vs 컴퓨팅 우위, 풀스택 진출 vs 파트너 leverage, Power 제약 — 을 다룬다.

이 세 축이 PM에게 중요한 이유는, 자사 product의 workload 특성에 따라 NVIDIA·AMD 중 어느 쪽을 우선 채택할지가 달라지기 때문이다. Long-context inference가 많으면 AMD MI400의 메모리 bandwidth 우위, training-heavy면 NVIDIA Rubin의 풀스택 ecosystem이 유리하다. Vendor lock-in을 피하려면 AMD의 open ecosystem이 안전하지만, 통합 효율은 NVIDIA가 압도적이다.

세 번째 축 Power 제약은 한국 대기업 PM이 가장 자주 간과하는 부분이다. 데이터센터 build-out 일정이 product roadmap의 silent constraint가 된다는 사실은, 대부분의 PM이 출시 6개월 전에서야 깨닫는다. 본 Part를 미리 읽으면 그 깨달음을 12-18개월 앞당길 수 있다.

4.1 메모리 vs 컴퓨팅 우위

  • AMD MI400: HBM4 19.6TB/s → 메모리 bandwidth 우위 (memory-intensive task)
  • NVIDIA Rubin: 컴퓨팅 + 풀스택 ecosystem → 종합 stack 우위

PM은 자사 workload가 memory-bound인지 compute-bound인지 식별해야 한다. Long-context inference는 메모리, training은 컴퓨팅 weight ↑.

4.2 풀스택 진출 vs 파트너 leverage

quadrantChart
    title NVIDIA vs AMD Strategy Positioning
    x-axis Closed --> Open
    y-axis Hardware --> FullStack
    quadrant-1 Open FullStack
    quadrant-2 Closed FullStack
    quadrant-3 Closed Hardware
    quadrant-4 Open Hardware
    NVIDIA: [0.45, 0.85]
    AMD: [0.7, 0.45]
    Intel: [0.4, 0.25]
  • NVIDIA: 모든 layer 자체 제공 (lock-in 위험)
  • AMD: open ecosystem · 파트너 leverage (성장 속도 ↑이나 통합도 ↓)

4.3 Power 제약 — “데이터센터가 silent constraint”

양강 모두 power가 진짜 한계라고 동의한다. 데이터센터 1GW 계약, 6GW 계약 같은 단위가 일상이다.

PM 코치의 컨설팅 사례 — 한국 KT·SKT·Naver의 데이터센터 조달은 이미 2027년 분량까지 예약돼 있다. 2026년 현재 새 enterprise AI feature를 출시하면, 데이터센터 신규 capa는 2027 Q3 이후나 가능하다는 답이 자주 나온다. 이를 모르고 PRD에 “2026 Q4 출시”를 넣으면, 6개월 후 silent하게 일정이 밀린다. PM은 데이터센터 build-out 일정을 product roadmap의 silent constraint로 인지해야 한다.


Part 5 — PO·PM·PL 시사점 (5-Domain 매핑)

지금까지 Part 1-4에서 양강의 풀스택 진출·공통 패턴·차이점을 봤다. Part 5는 그 모든 것을 PM의 일상 역량 5-Domain으로 번역한다.

5-Domain 중 본 시리즈 D가 가장 강하게 가르치는 것은 Domain 4: Compute Literacy다. “tokens per kilowatt”라는 새 자원 단위를 정의한 사람들이 본 시리즈의 두 주인공이다. PM이 이 단위를 이해하지 못하면, feature ROI 계산이 1년 후 production에서 무너진다. 그러나 Domain 4 외에도 다른 Domain에 영향이 있다 — Domain 3(Agentic Design)에는 OpenClaw 같은 오픈소스 framework가 reference가 되고, Domain 5(Org Change)에는 vendor 다중화 전략이 필요하다.

본 Part는 이 매핑을 표로 정리하고, 직무별(PO·PM·PL) 1순위 액션을 명시한다. 특히 PL에게는 데이터센터 build-out 일정을 product roadmap의 silent constraint로 인지하는 것이 향후 12개월의 결정적 차별화 능력이다.

Domain Tier 4 양강이 보여주는 것 PM의 즉시 액션
Prompt + Context (간접) Nemotron OSS + Agent Toolkit open weight 모델 1개 직접 fine-tune 시도
Eval as Product Surface NVIDIA·AMD 자체 벤치마크 (MLPerf 등) feature 1개에 latency·throughput 벤치 수행
Agentic System Design Agent Toolkit · OpenClaw 오픈소스 OpenClaw 같은 orchestration framework 1주일 사용
Compute Literacy “tokens per kilowatt” 신경제 feature ROI를 token·power 단위로 1주일 측정
Org Change Readiness NVIDIA·AMD 양강 경쟁 → vendor 다중화 자사 stack의 vendor lock-in risk 1페이지 작성

직무별 강조

  • PO: backlog item에 token cost 추정을 필수 메타데이터로 추가
  • PM: vendor lock-in matrix 1장 작성 (NVIDIA·AMD·자체) + 6개월 검토 cycle
  • PL: 데이터센터 build-out 일정을 product roadmap silent constraint로 인지

Part 6

다음 시리즈로의 연결

Tier 4 Hardware는 product 가능성의 상한선을 정의했다. 이제 4-Tier 통합 인사이트를 본인의 PO·PM·PL 직무로 번역할 차례다.

본 Part는 본 시리즈 D의 결론이자 다음 시리즈 E(PO·PM·PL 역량 통합편)의 안내서다. 4-Tier 시리즈 모두를 통과한 독자에게 마지막으로 남은 질문은 단 하나다. “이 모든 인사이트를 내가 매일 만지는 product에 어떻게 적용하는가.” 시리즈 E가 그 답을 제공한다.

특히 시리즈 D를 읽은 독자가 시리즈 E의 Domain 4(Compute Literacy)를 읽으면, 본 시리즈에서 다룬 양강의 인사이트가 본인 task별·feature별 token cost 계산표로 직접 번역되는 경험을 하게 된다. 본 시리즈가 추상적이었다면, 시리즈 E는 본인 책상 위 현실로 끌어내린다.

flowchart TB
    A[시리즈 A: Roots ✅
사고 체계] B[시리즈 B: Builders ✅
도구 비전] C[시리즈 C: Operators ✅
회사 동향] D[시리즈 D: Hardware 본편
물리·경제 제약] E[시리즈 E: PO·PM·PL 역량 다음
5-Domain 통합편] A --> B --> C --> D --> E style D fill:#fff4e6,stroke:#d79b00,stroke-width:3px

다음 편(Series E)에서는 4-Tier가 가르쳐 준 모든 인사이트를 PO·PM·PL이 매일 만질 5-Domain 역량으로 번역한다. 본 시리즈 D는 그중 Domain 4 Compute Literacy의 직접 토대다.


🏷 Tags

AX Agentic Tier-4 Hardware NVIDIA AMD Jensen Huang Lisa Su Token Economy tokens per kilowatt MI400 Rubin OpenClaw Agent Toolkit PM 코칭 Compute Literacy


✍ Footer 서명

PM 코치가 바라보는 AX 시리즈 — Tier 4 종합편 / 작성: 2026-04-16 / 다음 편: AX PO·PM·PL 역량 5-Domain 통합편 (시리즈 E) 작성자: Peter Kim (PM 코치, 15년+ 국내 대기업 PM 컨설팅) — projectresearch.co.kr

전체 시리즈 가이드

Agentic PM — AI 에이전트 시대의 PM/PL·엔지니어 가이드 →

7개 카테고리 30+편으로 구성된 시리즈. AX 전략 · 현장 검증 · PM/PL 역할 전환 · 사고 체계 · AI 인물 탐구 · 실전 도구 · 실전 실험.

AI 전문가 탐구 시리즈 (A→E · 12편)

📘 A · Roots — 사고 체계
종합 · Karpathy · Sutskever · Hassabis · LeCun · Hinton · Ng · Fei-Fei Li

🛠️ B · Builders — 도구·프로덕트 비전
Boris·Cat·Truell·Masad·Murati·Brockman

🏛️ C · Operators — 회사·시장 동향
Altman·Amodei·Nadella·Pichai·Zuckerberg·Suleyman

⚙️ D · Hardware — 물리·경제 제약
Jensen Huang · Lisa Su (NVIDIA · AMD)

🎯 E · Integration — PO·PM·PL 통합 역량
5-Domain × 3-Level 통합 매트릭스

Peter Kim — PM 코치 / 15년+ 국내 대기업 PM 컨설팅 · PMP/CSP/CBAP · projectresearch.co.kr

함께 읽기 · Related Posts

시리즈 네트워크에서 이 편과 연결된 글

Project Research에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기