AI 전문가 탐구 #1 — 7인의 AI 마스터 중 왜 Karpathy만 PM의 언어로 번역되는가: 사고 체계 해부와 프로젝트 설계 원리
PM 코치/컨설턴트로서 AI 대가를 분석하는 것은 단순한 인물 소개가 아닙니다. “이 사람의 사고 방식을 내 업무에 어떻게 번역할 수 있는가?”를 묻는 과정입니다.
Andrej Karpathy는 AI 분야에서 유일하게 연구자 → 프로덕션 엔지니어 → 교육자 → 창업가 4중 역할을 모두 수행한 인물입니다. 이 글에서는 그의 경력과 프로젝트를 분석하되, PM/PL이 실제로 적용할 수 있는 사고 패턴과 프로젝트 운영 원리에 초점을 맞춥니다.
1. 왜 7인의 AI 마스터 중 Karpathy가 PM/PL에게 가장 먼저인가
2. 그의 프로젝트 패턴에서 어떤 사고 체계(Thinking System)가 추출되는가
3. 이를 전통 PM 프레임워크(PMBOK, BABOK)와 어떻게 대비할 수 있는가
4. PM/PL이 이번 주부터 적용할 수 있는 것은 무엇인가
왜 Andrej Karpathy가 먼저인가
AI 인물 탐구의 첫 대상을 선정한 기준은 “가장 위대한 연구자”가 아닙니다. “PM/PL이 자기 업무에 가장 빠르게 번역할 수 있는 패턴을 제공하는가”입니다.
7인의 AI 마스터 중 유일한 4중 역할자
다른 대가들은 “연구 + 교육” 또는 “연구 + 창업” 조합이지만, Karpathy만이 대규모 프로덕션 시스템(Tesla Autopilot, 300만+ 실차 배포)을 5년간 직접 이끈 경험을 보유합니다.
10년간 PM 코칭을 하면서 깨달은 것이 있습니다. PM/PL이 AI를 배울 때 가장 빠른 길은 논문이 아니라 “이론을 제품으로 바꾸고, 그 과정을 공개한 사람”을 먼저 보는 것입니다. Karpathy는 자신의 사고 과정을 재현 가능한 시스템으로 외현화합니다 — 코드, 강의, 에세이로. 다른 AI 대가의 사고 모델은 논문과 인터뷰에서 추론해야 하지만, Karpathy의 모델은 GitHub에서 직접 관찰할 수 있습니다.
“만들고 공개한다”는 반복 패턴
Karpathy의 경력을 관통하는 패턴이 있습니다: 복잡한 것을 처음부터 만들고(Build from Scratch), 결과를 완전히 공개한다(Open Source/Open Education).
주요 프로젝트: 경력 전체 궤적
커리어 타임라인
1986년 슬로바키아 출생, 2001년 캐나다 이주. 토론토대 컴퓨터과학+물리학 학사(2009) → UBC 석사(2011) → Stanford PhD(2015, 지도교수: Fei-Fei Li). 이후 OpenAI 공동 창립(2015) → Tesla AI Director(2017-2022) → OpenAI 복귀·재퇴사(2023) → Eureka Labs 설립(2024).
프로젝트 진화 맵
%%{init: {'theme': 'base', 'themeVariables': {'primaryColor': '#fdf2d8', 'primaryTextColor': '#17160f', 'primaryBorderColor': '#8f5e00', 'lineColor': '#7a7868', 'secondaryColor': '#e6edfb', 'tertiaryColor': '#eeebd8', 'fontSize': '14px'}}}%%
graph LR
subgraph PARA["💡 패러다임 정의"]
direction LR
D1["Software 2.0
2017"] --> D2["Vibe Coding
2025"]
D2 --> D3["Software 3.0
2025"]
D3 --> D4["Agentic Eng.
2026"]
D4 --> D5["autoresearch
2026"]
D5 --> D6["LLM KB
2026"]
end
subgraph PROD["⚙️ 프로덕션"]
direction LR
P1["OpenAI 공동 창립
2015-17"] --> P2["Tesla AI Director
2017-22"]
P2 --> P3["OpenAI 복귀
2023"]
P3 --> P4["Eureka Labs
2024"]
end
subgraph EDU["🎓 교육"]
direction LR
E1["cs231n
2015"] --> E2["minGPT
2020"]
E2 --> E3["micrograd
2021"]
E3 --> E4["Zero to Hero
2022-23"]
E4 --> E5["nanoGPT
2023"]
E5 --> E6["llm.c
2024"]
end
style PARA fill:#fdf2d8,stroke:#8f5e00,stroke-width:2px
style PROD fill:#fcecea,stroke:#b52a1e,stroke-width:2px
style EDU fill:#e6edfb,stroke:#1a4fd6,stroke-width:2px
세 트랙은 서로 독립적이지 않습니다 — 프로덕션(Tesla) → 패러다임(Software 2.0), 교육(처음부터 만들기) → 패러다임(autoresearch 630줄)으로 교차 영향을 주고받습니다.
핵심 프로젝트 분석
cs231n: AI 교육의 골든 스탠다드 (2015-2017)
Stanford 최초의 딥러닝 강의를 설계하고 직접 강의했습니다. 150명에서 시작해 750명까지 성장하며 Stanford 최대 강의 중 하나가 되었고, YouTube 공개 후 전 세계 수십만 명의 딥러닝 진입점이 되었습니다. 이론보다 구현 중심 — 학생이 직접 역전파, CNN, RNN을 코딩합니다.
Tesla Autopilot: 유일한 대규모 프로덕션 경험 (2017-2022)
AI Director로서 Autopilot Vision을 총괄했습니다. 업계 대부분이 LiDAR를 필수 센서로 채택한 반면, Tesla는 Karpathy 주도로 카메라 8대만으로 자율주행(Vision-Only)을 추구했습니다.
• 제약을 기회로 — 센서 제한이 오히려 소프트웨어 혁신을 강제
• 데이터 플라이휠 — 판매된 차량 = 데이터 수집 장치 → 모델 개선 → 제품 가치 증가
• 점진적 배포 — Shadow Mode → OTA → FSD Beta → 점진적 자율성 확대
• 아키텍처 진화 — HydraNets → Bird’s Eye View → Occupancy Networks (3D 공간 점유 예측)
nanoGPT / llm.c: “처음부터 만들기”의 정수 (2023-2024)
nanoGPT(~600줄, 56K+ Stars)는 GPT-2를 처음부터 훈련하는 코드, llm.c(29K+ Stars)는 PyTorch 없이 순수 C로 LLM을 훈련합니다. 복잡한 시스템을 핵심만 남기고 재구현하는 것이 가장 깊은 이해의 증거라는 철학입니다.
autoresearch: The Karpathy Loop (2026)
Fortune이 “The Karpathy Loop”로 명명한 이 프로젝트(630줄 Python, 65K+ Stars)는 에이전트가 자율적으로 실험을 반복하는 루프입니다. 핵심 메커니즘은 단 4개: 수정 대상 1개 + 자동 채점 지표 1개 + 고정 시간 예산 + Keep/Discard 프로토콜. 2일 만에 700실험, 20개 최적화를 발견했습니다. (→ PM 실전 적용 사례: Karpathy의 autoresearch: PM에서의 적용 사례)
LLM Knowledge Bases (2026)
“LLM을 지식 노동자로 고용하라” — 2026년 4월 X 포스트에서 공개한 7-레이어 지식 런타임입니다. Data Ingest → LLM Compile → IDE → Q&A Agent → Output → Linting → Extra Tools. 이 모델을 15,000+ 노트 규모의 실전 vault에 적용하여 150배 스케일 확장을 실증했습니다. (→ 실전 구축기: Karpathy의 LLM과 Obsidian 지식 결합)
산업에 미친 영향: 소프트웨어 세대교체를 명명한 사람
Karpathy는 단순히 기술을 개발한 것이 아니라, 시대의 전환을 명명했습니다. 그가 만든 3개의 용어는 각각 소프트웨어 개발 패러다임의 세대교체를 상징합니다.
이 프레임은 산업에 두 가지 영향을 남겼습니다. 첫째, AI를 제품팀의 부가 기능이 아니라 핵심 설계 변수로 취급하게 만들었습니다. 둘째, 개발 생산성 논의를 “툴 추가”에서 “추상화 계층 재설계”로 이동시켰습니다.
autoresearch의 산업 파급 효과
PO/PM 관점에서 본 Karpathy의 사고 체계
Product Owner로서의 Karpathy: 3가지 비전 설정 패턴
패턴 1 — 근원 질문(Root Question)에서 시작
패턴 2 — 제약을 설계(Design the Constraint)
전통적 PM은 “제약을 제거하려” 노력합니다. Karpathy는 “올바른 제약을 설계하여 팀의 에너지를 집중시키는” 접근을 취합니다.
패턴 3 — 공개 검증(Open Validation)
모든 프로젝트의 결과를 공개합니다. GitHub → 커뮤니티가 코드를 검증, YouTube → 설명력을 검증, X → 아이디어의 공명도를 검증, Tesla → 실차 데이터로 성능을 검증.
Karpathy Thinking System (KTS): 4단계 사고 모델 추출
프로젝트 전체를 관통하는 사고 체계를 4단계로 추출했습니다. 이것은 학술적으로 검증된 프레임워크가 아닌, 프로젝트 패턴 분석에서 도출한 PM 코치의 해석적 모델입니다.
%%{init: {'theme': 'base', 'themeVariables': {'primaryColor': '#fdf2d8', 'primaryTextColor': '#17160f', 'primaryBorderColor': '#8f5e00', 'lineColor': '#17160f', 'fontSize': '14px'}}}%%
graph TB
P1["🔒 Phase 1
제약 설계
Constraint Design"]
P2["📊 Phase 2
자동 채점
Auto-Scoring"]
P3["🔄 Phase 3
닫힌 루프
Closed Loop"]
P4["🌐 Phase 4
공개 검증
Open Validation"]
P1 -->|"수정 범위 1개
고정 시간"| P2
P2 -->|"객관적 메트릭
자동 평가"| P3
P3 -->|"Keep/Discard
복리 축적"| P4
P4 -.->|"피드백이
제약을 개선"| P1
Q1["❓ 무엇을 건드릴 수 있고
무엇을 건드리면 안 되는가?"]
Q2["❓ 성공을 어떻게
자동으로 측정하는가?"]
Q3["❓ 결과가 자동으로
다음 실험에 반영되는가?"]
Q4["❓ 외부에서 독립적으로
검증할 수 있는가?"]
P1 --- Q1
P2 --- Q2
P3 --- Q3
P4 --- Q4
style P1 fill:#e6edfb,stroke:#1a4fd6,stroke-width:2px,color:#17160f
style P2 fill:#fdf2d8,stroke:#8f5e00,stroke-width:2px,color:#17160f
style P3 fill:#fcecea,stroke:#b52a1e,stroke-width:2px,color:#17160f
style P4 fill:#eeebd8,stroke:#17160f,stroke-width:2px,color:#17160f
style Q1 fill:#fff,stroke:#1a4fd6,stroke-width:1px,stroke-dasharray:5 5,color:#555
style Q2 fill:#fff,stroke:#8f5e00,stroke-width:1px,stroke-dasharray:5 5,color:#555
style Q3 fill:#fff,stroke:#b52a1e,stroke-width:1px,stroke-dasharray:5 5,color:#555
style Q4 fill:#fff,stroke:#17160f,stroke-width:1px,stroke-dasharray:5 5,color:#555
핵심 전환: 전통 PM의 “사람이 판단”에서 → “시스템이 판단하고, 사람은 시스템을 설계”하는 모델로
전통 PM 프레임워크와의 매핑
PM으로서의 Karpathy: 프로젝트 운영 원리
Karpathy의 프로젝트 운영에서 PM/PL이 번역할 수 있는 6가지 원리입니다.
Karpathy 따라가기: PM/PL을 위한 실행 가이드
autoresearch를 클론하거나 nanoGPT를 돌려보는 것이 아닙니다. 그의 사고 패턴을 자기 도메인에 번역하는 것입니다.
PM 루트 vs PL 루트: 콘텐츠 입문 순서
PM 루트
- Software 2.0 에세이
- Software Is Changing (Again) 강연
- Eureka Labs 비전
- autoresearch의 program.md 사고
- LLM Knowledge Bases
목적: 문제 명세 방식과 자율성 레벨 설계 학습
PL 루트
- Tesla AI Day 설명
- micrograd → minGPT → nanoGPT
- llm.c
- autoresearch
- YouTube Zero to Hero
목적: 작은 실행 단위, 측정 가능한 루프, 검토 가능한 diff 감각
30일 실천 루틴
Quick Start: 이번 주 시작할 수 있는 5가지
1. Karpathy의 autoresearch: PM에서의 적용 사례
autoresearch의 4요소(수정 대상 1개, 자동 채점, 고정 시간, Keep/Discard)를 PM 실무에 적용한 실전 사례. voice drift +259%, ontology quality +494% 개선 결과를 포함합니다.
2. Karpathy의 LLM과 Obsidian 지식 결합
Karpathy의 7-레이어 LLM Knowledge Base 모델을 15,000+ 노트 규모 Obsidian vault에 실제 적용한 구축기. 150배 스케일 확장의 설계 원리와 한계를 다룹니다.
결론: AI 시대의 일 운영체계를 다시 쓰는 방법
Karpathy의 가치는 “유명한 AI 연구자”라는 이력이 아니라, AI 시대의 인터페이스와 역할을 재설계하는 사람이라는 데 있습니다. 그는 연구를 제품으로, 제품을 교육으로, 교육을 다시 워크플로우 혁신으로 연결합니다.
PM/PL에게 Karpathy는 단순히 배워야 할 인물이 아니라, AI 시대의 일 운영체계를 설계할 때 참고할 수 있는 하나의 모델입니다.
PM 코치로서 제가 Karpathy에게서 가장 크게 배운 것은 기술 지식이 아닙니다. “올바른 제약을 설계하면, 시스템이 알아서 답을 찾는다”는 원칙입니다. 이것은 autoresearch에서도, Tesla의 비전 전용 접근에서도, nanoGPT의 600줄에서도 동일하게 작동합니다. 그리고 이 원칙은 AI 프로젝트뿐 아니라 모든 프로젝트 관리에 적용할 수 있습니다.
다음 편에서는 Ilya Sutskever — “압축이 곧 지능이다”를 믿는 사람의 사고 체계를 분석합니다.
#Karpathy
#AgenticPM
#Software2.0
#autoresearch
#PM코치
#PMBOK
이 글은 10년간의 PM 코칭/컨설팅 경험과 Karpathy의 프로젝트 패턴에 대한 실전 적용 사례를 바탕으로 작성되었습니다. AI 전문가 탐구 시리즈 1편 — Peter Kim, PMP/CSP/CBAP | projectresearch.co.kr