AI 세미나 · 2026. 4

AI 개발 도구
Hands-on

에이전트 · 컨텍스트 엔지니어링 · 실습

S/W개발팀 SE · 김학민 · 2026. 4

프로그램 구성

Part A 맥락 · Part B Claude Code 심화 · Part C Hands-on Labs

A1 시장 반응 · 업계 기준선 SaaSpocalypse · DORA · DX Core 4 A2 Model ≠ Agent 개념 · 성능 공식 · 패러다임 전환 A3 인프라 · 역할 변화 메모리 병목 · Addy Osmani · 인지 소진 B1 Claude Code 개요 · Agent Loop 설치 · 명령어 · Plan · Tool use B2 Context Engineering · Multi-agent CLAUDE.md · Rules · Teams · MCP B3 실전 워크플로 · Harness TDD · PR 리뷰 · Worktree · 프롬프팅 B4 운영 · 비용 · 실천 A/B/C 프레임워크 · 비용 · Takeaway

자동완성 → 대화 → 에이전트 → 팀

지난 1년, 개발 도구의 축이 매년 하나씩 이동했습니다

SECTION 01

시장이 말하는 것

SaaSpocalypse — SaaS(구독형 소프트웨어) + Apocalypse

SaaSpocalypse — 시장의 즉각적 반응

S&P 500 vs Software Sector (IGV)

S&P 500 vs Software Sector(IGV) 디커플링 — 2025.10 고점 대비

Salesforce · Workday 등 대형 SaaS

하루 시총 큰 폭 하락

소프트웨어 섹터 분위기

AI 자동화가 좌석 라이선스에 압력

전제의 재검토

직원 ≠ 라이선스

AI Agent가 사람이 직접 쓰고 판단을 내리는 도구가 되자, 중간 소프트웨어가 흔들렸습니다

제한된 기능
(피처폰)

무한한 확장성
(스마트폰)

1년 사이 모델 성능이 크게 달라져서, 예전 경험 기준으로는 현재 상황을 가늠하기 어려운 구간입니다

개발 업무 전반에 확산

구현

기능 개발 · 리팩터링
보일러플레이트 제거

품질

PR 리뷰 · 테스트 생성
엣지 케이스 탐색

디버깅

재현 · 원인 분석
가설 경쟁

운영

로그 분석 · 장애 대응
문서화 · 온콜 보조

단순 코드 생성이 아니라 개발 사이클 전반에 AI가 스며드는 구조

"자연어가 새로운 프로그래밍 언어가 되고 있고, 더 많은 사람이 기계와 직접 대화한다"
— Jensen Huang, NVIDIA CEO

셸 명령 대신 의도로 컴퓨터를 조작하는 시대 — CLI에서 자연어 에이전트로

SECTION 02

업계 기준선

지금 어디까지 와 있는가

AI 사용자 규모 — 점 하나가 120만 명

Each dot is ~1.2 million people

전 세계 AI 도구 사용자 분포

AI 사용자

수억 명

에이전트 사용자

극소수

직접 써본 사람

매우 소수

AI를 들어본 사람은 많지만, 에이전트를 직접 써본 사람은 거의 없습니다

핵심 지표

개발자 AI 도구 채택률
90%+
출처: DORA, DX
AI 코드 작성 비율
90%
출처: Anthropic
높은 채택 조직 생산성 향상
110%+
출처: Jellyfish-OpenAI
Staff+ 엔지니어 주당 시간 절감
4.4시간
출처: DX Q4 2025

개발자 세계에서는 이미 표준 — 다음 차례는 모든 직군

변화의 속도

2023
자동완성
코드 제안 수락
2024
채팅 코드생성
대화형 코딩
2025
에이전트
자율 실행 · 도구 사용
2026
멀티에이전트
전문가 팀 · 병렬 실행

2년 만에 자동완성에서 멀티에이전트까지

SECTION 03

Model ≠ Agent

같은 모델이어도 어떤 에이전트 위에서 구동하느냐로 결과가 달라진다

패러다임 전환 — CLI → GUI → 챗봇 → 자율 에이전트

명령어 (CLI)
셸 · 스크립트
마우스 (GUI)
IDE · 웹
자연어 (챗봇)
ChatGPT · Copilot Chat
자율 에이전트
Claude Code · Codex

인터페이스의 축이 지시에서 위임으로 이동

콜센터 ARS vs 전담 비서

챗봇과 에이전트의 주요 차이

ARS (챗봇)

1번 누르세요, 2번 누르세요

정해진 메뉴 바깥은 불가

매번 처음부터 다시 설명

전담 비서 (에이전트)

맥락을 이해하고 알아서 조사

판단 · 실행 · 중간 보고

피드백 반영 · 후속 조치까지

기본 챗봇 경험과 에이전트 경험은 구조적으로 다른 체험이라, 한쪽으로는 다른 쪽을 가늠하기 어렵습니다

대답하는 도구 → 일하는 도구

챗봇 (ARS) 에이전트 (비서)
환경 인식주어진 정보만 참조프로젝트의 전체 맥락 이해
실행 능력텍스트 답변만 가능문서 작성 · 분석 · 도구 실행
작업 범위1회 질의-응답수시간 자율 실행 · 중간 보고
오류 대응다시 지시해야 함자체 감지 → 수정 → 재시도

비유로 이해하는 구조

제조사
Samsung
Anthropic · Google · OpenAI
브랜드
Galaxy
Claude · Gemini · ChatGPT
에이전트 (제품)
Galaxy S 시리즈
Claude Code · Codex · Gemini CLI
모델 (두뇌)
Exynos 2600
Claude Opus · Gemini Pro · GPT-5

같은 모델이라도 어떤 에이전트 위에서 구동하느냐에 따라 결과가 달라집니다

성능 공식

성능 = Model × Agent × 나(Pilot)

Model

AI의 추론 능력
Claude, GPT, Gemini

Agent

도구 사용·실행 능력
Claude Code, Codex

나 (Pilot)

판단·지시 능력
도메인 지식, 프롬프트

셋 중 하나라도 0이면 결과도 0 — 사용하는 사람이 핵심

에이전트에서 팀(Team)으로

비서 1명에서 전문가 팀으로 확장

에이전트 1명

Solo · Sequential

시장조사
보고서
팩트체크
프레젠테이션

순차 처리

SCALE
TEAM
Team Lead
Orchestrator · 역할 분배 · 취합

시장조사

보고서

팩트체크

시각화

전문가 4명이 동시에 병렬

한 명이 순서대로 처리하던 일을 팀이 동시에 — 개인 작업에서 조직 작업으로

에이전트는 지시 → 실행 → 결과 구조입니다

사람이 매 단계 개입하지 않습니다

실제 에이전트 — Claude Code

코딩 에이전트가 아니라, 파일을 열고 수정하고 실행하는 자율 에이전트

코드 작성

앱 · 웹사이트
자동 생성

실행

작성한 코드를
직접 실행 · 검증

문서

보고서 · 발표자료
구조화 · 작성

분석

데이터 수집
인사이트 도출

코딩뿐 아니라 문서 · 분석 · 발표자료 같은 디지털 산출물 전반에 적용

이미 일어난 변화 — GitHub README가 사람과 에이전트용으로 분기

GitHub README: For Humans / For LLM Agents

출처: GitHub — Oh My OpenCode README

For Humans

"이 설치 프롬프트를 LLM 에이전트에게
복사해서 붙여넣으세요"

For LLM Agents

curl -s 로 가이드를 직접 가져와
각자 환경에 맞춰 실행하세요

"사람이 직접 설치하면 오타낸다. 에이전트한테 시켜라."

문서의 독자가 사람만이 아닌 것은 이미 오픈소스의 현실

"AI가 구현을 대신할수록,
아키텍처 사고와 보안 인식의 가치는 오히려 더 높아진다"
— Addy Osmani, Google · Agentic Engineering

시스템 설계 · 도메인 이해 · 품질 검증 역량이 상대적으로 더 중요해짐

에이전트 확산은 인프라 수요를 끌어올립니다

토큰 소모 수 배~수십 배 → 메모리·네트워크·전력이 가장 먼저 움직임

SECTION 04

AI 인프라의 병목

에이전트 확산이 어디에 압력을 만드는가

AI 밸류체인 — 레이어 전체 지도

AI Value Chain Framework

출처: Machine Learning Made Simple — Investor's Analysis of the Gen AI Market

반도체 · 데이터센터 · 클라우드 · 모델 · 애플리케이션 — 이 중 어디에 먼저 압력이 쌓일지 함께 살펴봅시다

수요 증가가 가장 먼저 닿는 곳

훈련 · 추론 · 영상 · 월드모델 — 수요 패턴이 메모리 쪽으로 수렴하는 양상

훈련 데이터
10배+
텍스트 LLM 대비 영상 AI
추론 KV 캐시
100배
Reasoning 모델 long context
생성물 크기
수만 배
KB(텍스트) vs GB(영상)

텍스트 LLM보다 추론·영상·월드모델 쪽이 훨씬 빠르게 자원을 소모 — 로직 칩보다 HBM 공급 측 여유가 출고량에 더 크게 영향

AI Agent 시대 = 추론 상시화 시대

과거
사람이 질문할 때만 AI 작동
간헐적 추론
현재
에이전트가 자율적으로 24/7 작업
상시 추론
미래
수천 개 에이전트가 동시에 병렬 작업
폭발적 추론

에이전트가 늘어날수록 — 추론 연산 × 저장 수요 = 메모리 수요

왜 천문학적 투자를 멈출 수 없는가

과잉투자는 비용의 문제, 과소투자는 존재의 문제

공포

향후 10–15년 AI 플랫폼 재편 국면에서 포지션을 놓칠 가능성
— 빅테크 CEO 공개 발언 종합

비대칭 리스크

과소투자 리스크가
과잉투자보다 극적으로 크다
— Sundar Pichai, Alphabet CEO

치킨게임 구조

수요 > 공급, 긴 리드타임
지금 안 깔면 따라잡을 수 없음
— AI 클라우드 점유율 게이트

I am willing to go bankrupt rather than lose this race.— Larry Page, Google 공동창업자

메모리 · 스토리지 — AI 서버의 주요 구성 요소

HBM High Bandwidth Memory

GPU 위에 직접 적층, AI 연산 속도의 최대 병목

웨이퍼 소모 일반 DRAM의 3~4배
DDR5 범용 DRAM

CPU 시스템 메모리, 에이전트 세션 · KV-cache 오프로드

AI 서버·에이전트 상시화로 수요 급증
NAND · SSD 비휘발성 스토리지

학습 데이터 · 모델 저장, 에이전트 파일 I/O 경유

학습 데이터·생성물 저장 수요 확대
DDR4 레거시 DRAM

레거시 서버 · 산업용, HBM 확대로 공급 감소 → 동반 상승

일부 규격 DDR5보다 비싼 역전 사례

공급·수요 구조

공급 측

같은 웨이퍼 라인 공유
HBM 확대 → 범용 DRAM·NAND 캐파 경쟁

수요 측

에이전트 전환으로
토큰 소모 수 배~수십 배
같은 사용자 수여도 인프라 소모 폭증

결과

HBM · DDR5 · NAND
동반 상승
리드타임 장기화

GPU 수요가 커질수록 메모리 수요도 함께 따라가는 구조

SECTION 05

역할의 변화

구현에서 설계 · 판단으로

구현 비용의 붕괴

"코드 작성은 점점 값싼 상품이 되고 있고, 정말로 중요한 것은 어떤 질문을 할 수 있느냐"
— Jensen Huang, NVIDIA CEO

기획자 : 실행자 비율의 역전

전통적 조직

기획 : 실행
1 : 7

AI 시대 (Andrew Ng)

기획 : 실행
2 : 1

실행 시간이 3주 → 1일로 압축되면서, 기획과 판단의 비중이 더 커지고 있습니다

도메인 전문성과 AI의 결합

AI만

범용적이지만
깊이 부족

전문성만

깊지만
속도 제한

전문성 + AI

깊이 + 속도
= 차별화된 결과물

도메인 경험과 AI가 결합될 때 차별화된 관점이 만들어지기 쉽습니다

인지 노동의 심화

초고속 AI 산출물
쏟아지는 보고서·분석
맥락·결정 요청
인지 병목

AI 산출물을 확인하고
맥락·판단을 더하는
사람 쪽 작업

AI가 빨라질수록, 다음 결정을 내리는 사람이 critical path

AI는 증폭기(Amplifier)

성숙한 조직

효과 가속

정리되지 않은 조직

문제 악화

— Google DORA Report, 2025

AI는 마법이 아닌 증폭기 — 기반이 좋으면 가속, 아니면 혼란도 가속

AI의 한계 — 환각(Hallucination)

현상

존재하지 않는 데이터를
자신 있게 생성

위험

보고서에 가짜 출처
틀린 수치가 포함될 수 있음

대응

AI 산출물은 반드시
사람이 검증

AI가 만든 것을 그대로 쓰는 것이 아니라 검증하고 판단하는 것이 핵심

개발자 역할은 어떻게 변하는가?

코드 탐색
AI가 레포 구조 파악 · 관련 파일 수집
→ 설계 판단 · 영향 범위 확정
구현
AI가 1차 초안 · 보일러플레이트
→ 사양 정의 · 계약 리뷰
디버깅
AI가 가설 여러 개 병렬 검토
→ 도메인 추론 · 원인 확정
PR 리뷰 · 문서
AI가 초안 · 체크리스트 자동
→ 아키텍처 판단 · 책임

키보드 타격 시간은 줄고 — 판단·검증의 밀도가 올라간다

생산성의 역설과 도파민 루프

빠른 성과
즉각적 완성의 쾌감
반복 유도
과몰입
빠른 피드백 → 연속 작업
몰입 심화
인지 소진
100건 보고서 = 3년치 업무량
시간은 압축, 인지 피로는 누적

AI가 일을 해준다고 사람이 편해지는 것은 아닙니다

인지 소진 — 실천적 대응

분리
작업 시간과 검토 시간을 나눠두기
생성 ≠ 판단
제한
한 번에 볼 산출물 양을 정해두기
3건 단위 끊기
기록
시킨 것 · 판단한 것 구분해 적기
판단의 추적성
휴식
빨라진 만큼 회복 시간도 확보
지속가능성

도구가 빨라졌다고 사람도 빨라져야 하는 것은 아닙니다

SECTION 06

현실 제약과
실천 방향

기술 가능성과 우리 환경의 적용 가능성은 별개의 문제

기술 가능성과 적용 가능성의 분리

기술적으로 우리 환경에서 예시 대응
A 가능 적용 가능 외부 AI로 시장 분석 · 보고서 초안 · 번역 즉시 시작
B 가능 제약 존재 사내 데이터 분석 · 내부 시스템 연동 제약 해소 추진
C 불가 해당 없음 100% 자율 의사결정 기술 성숙 관찰

A는 오늘부터 가능 · B는 논의의 여지 · C는 기술 성숙도를 지켜보는 영역

우리 환경의 제약

사내망 보안
프론티어 AI 직접 사용 불가
사외망 구축 (진행 중) →
데이터 보안
외부 서비스 데이터 노출 우려
데이터 분류 (진행 중) →
조직 인식
AI 활용이 일부 조직에만 집중
이 세미나의 목적 ★

S/W 개발팀이 현재 진행 중인 사항

전사 AI 활용 의지

DS부문 차원의
AI 도구 적극 활용 방침

AI센터 협업

공통 인프라 조직과
메모리사업부 SW조직

S/W개발팀 선행

외부 AI 도구 활용
개발 효율화 PoC 진행

교육 완료
100명+
2025.12 — 2026.03
축적된 AI 활용 사례
100건+
공유가 만드는 집단 지성

전사 의지 · 협업 기반 · 선행 PoC — 실행 궤도에 이미 올라 있음

PART II

Claude Code
Hands-on

도구 · 워크플로 · 작동 원리

Claude Code — 무엇인가

Interface
CLI + IDE 확장 (VS Code, JetBrains)
터미널 우선, 에디터 통합
Runtime
에이전트 루프 내장 · 도구 호출 자동화
Read / Edit / Bash / Grep / Web
Context
프로젝트 단위 지식 (CLAUDE.md, Rules, Memory)
세션 간 유지
Extensions
MCP 서버 · Plugins · Custom Skills · Hooks
자기 워크플로에 맞춰 확장 가능

코딩 도구가 아니라 파일 시스템 위에서 작동하는 에이전트 — 범용 작업 인터페이스

주요 AI 개발 도구 비교

도구 형태 기본 모델 특징
Claude Code CLI + IDE Claude (Opus/Sonnet/Haiku) 에이전트 루프 · Skills · Teams
Codex CLI CLI GPT-5 계열 리뷰 · 병렬 검증에 강점
Cursor IDE 전용 멀티 (Claude/GPT/Gemini) 에디터 UX 완성도
Continue IDE 확장 로컬/원격 선택 오픈소스 · 커스텀 자유도

오늘은 Claude Code 중심으로 다룹니다 — 다른 도구는 필요에 따라 병행. 도구는 자주 바뀌지만 에이전트 작동 원리는 공통

설치 · 첫 실행

SETUP
# 설치
npm install -g @anthropic-ai/claude-code

# 실행 (프로젝트 루트에서)
cd your-project
claude

# 인증
OAuth 로그인 또는 API 키
필수 환경

Node.js 18.18+
Git 2.30+

삼성 환경

사외망 환경에서 프론티어 모델 사용
사내망 가이드는 별도 공지

첫 프롬프트

"이 레포 구조를 요약하고 CLAUDE.md 초안을 만들어줘"

Agent Loop — 에이전트는 이렇게 작동한다

1. 지시
사용자 프롬프트 · 현재 컨텍스트
입력
2. 계획
작업 분해 · 어떤 도구를 쓸지 결정
Plan mode에서 명시화
3. 도구 호출
Read / Edit / Bash / Grep / Web / MCP
실제 환경에 개입
4. 관찰
도구 결과를 해석 · 다음 행동 판단
피드백
5. 반복
목표 달성까지 2~5를 계속
자율 수시간 → 중간 보고

챗봇은 1회 응답, 에이전트는 이 루프 자체가 메커니즘

Tool Use — 무엇을 할 수 있나

내장 도구 (Claude Code)

Read 파일 읽기 · Edit 수정 · Write 생성
Bash 셸 실행 · Grep 검색 · Glob 패턴
WebFetch · WebSearch

확장 (MCP · Plugin)

GitHub / Jira / Slack 연동
Chrome 브라우저 자동화
DB 쿼리 · 내부 API
필요에 따라 등록

하위 에이전트 (Task)

독립 컨텍스트에서 병렬 실행
대규모 탐색 · 교차 검증
메인 세션 컨텍스트 보호

Skills · Hooks

자주 쓰는 절차를 한 단어로
이벤트 기반 자동 트리거
팀 단위로 공유 가능

Plan Mode · 핵심 명령어

명령용도언제 쓰나
/plan실행 전 계획만 제시3파일 이상 변경, 설계 판단 필요
/compact대화를 요약으로 압축긴 세션 진입 전, 컨텍스트 포화 예상
/clear컨텍스트 초기화무관한 작업 전환
/resume드롭된 세션 복구연결 끊김 / 재시작
/mcpMCP 서버 관리외부 도구 연결
/fast빠른 출력 모드간단한 쿼리, 빠른 이터레이션

Plan mode는 의사결정이 있는 작업에서 특히 유용 — 에이전트의 판단 근거를 먼저 본다

컨텍스트 관리 — /compact vs /clear

/compact

대화 요약을 컨텍스트로 유지
맥락 보존하며 토큰 감량

/clear

완전 초기화
새 주제로 전환

5분 규칙

프롬프트 캐시 TTL 5분
연속 사용이 비용 효율

긴 작업은 2시간 단위로 세션 리셋 — 컨텍스트가 얇아지면 판단 품질이 떨어진다

Sub-agent · 위임 임계값

상황처리이유
2 파일 수정메인 세션컨텍스트 오버헤드가 더 큼
순차 단계 작업메인 세션병렬화 이득 없음
≥10 파일 탐색Explore 서브에이전트메인 컨텍스트 보호
≥3 독립 작업병렬 Task 호출시간 단축 · 격리된 실행
리서치 / 의사결정리서치 fan-out다각도 perspective 필요

3명 팀 = 순차 실행 대비 3~4배 토큰 — 실제 병렬 이득이 있을 때만 붙여라

CLAUDE.md — 프로젝트 지식을 코드처럼 관리

Global
~/.claude/CLAUDE.md
모든 프로젝트 공통 (언어·스타일·협업 원칙)
Project
<repo>/CLAUDE.md
이 레포의 규칙 (빌드·테스트·컨벤션)
Local
.claude/settings.local.json
개인 설정 (권한 · env · hook) · .gitignore 대상

세션 시작 시 자동 로드 — AI가 맥락을 찾느라 허비하는 시간을 없앤다

Rules — 규칙을 모듈로 쪼개라

agent-teams.md

언제 서브에이전트 띄울지, 모델 티어 선택

coding-standards.md

스타일 · 테스트 · 커밋 메시지 규칙

memory.md

auto-memory 레이어 동작 방식

monitoring.md

Monitor tool 활용 패턴

단일 CLAUDE.md 거대화 → @-import로 모듈 로드, 필요할 때만 펼침

Auto-memory — 세션을 넘는 기억

user

역할 · 선호 · 지식 수준

feedback

교정 · 확인된 판단 + Why

project

현재 이니셔티브 · 마감 · 이해관계

reference

외부 시스템 포인터 (Jira, Confluence)

~/.claude/projects/<name>/memory/MEMORY.md 인덱스 + topic 파일 — 200줄/25KB 자동 로드

Skills — 반복 절차를 한 단어 명령으로

EXAMPLE
# 사용
/review-pr 1234

# 내부 동작 (스킬 정의)
1. gh pr view 1234
2. 변경 파일 분석
3. 프로젝트 컨벤션 적용
4. 리스크 항목 요약
5. Codex 교차 검증 병렬
효과

프롬프트 반복 제거 · 품질 일관성

팀 공유

레포에 커밋 → 팀원이 즉시 동일 결과

Prompt Caching — 5분 TTL의 경제학

Hit
~10%
캐시 비용 (읽기)
Write
~1.25x
최초 쓰기 비용
TTL
5분
기본 만료 시간

큰 CLAUDE.md + Rules + 레포 요약이 시스템 프롬프트로 들어가면 cache 히트율이 품질과 비용을 동시에 잡는다

Agent Teams — 팀 단위 조정

도구역할
TeamCreate조정된 팀 생성 · 팀원은 CLAUDE.md / Skills 상속, 대화는 상속 안 함
SendMessage팀원 간 peer-to-peer 메시지 (mailbox)
TaskCreate / List / Get공유 큐 · TaskCreated hook fires
EnterWorktree팀원별 분리된 브랜치 + 작업 디렉토리

Teams는 팀원끼리 대화가 필요할 때 — 독립 쿼리 팬아웃은 Agent 호출 여러 개로 충분

Tiered Model — 작업에 맞는 모델 티어

Opus

메인 오케스트레이션
복잡한 설계 · 합의

Sonnet

집중 구현 · 리뷰
목적 있는 리서치

Haiku

읽기 전용 탐색
간단 lookup
Explore 에이전트가 이미 사용

Plan 모드(opusplan) — Opus가 설계 후 Sonnet으로 전환 실행

Codex Plugin — 크로스 엔진 검증

명령용도
/codex:review현재 diff 또는 브랜치 read-only 리뷰
/codex:adversarial-review가정을 공격하는 데빌즈-애드버킷 리뷰
/codex:rescue복잡한 버그 / 리팩토링을 Codex에 완전 위임
--background비동기 실행, /codex:status로 폴링

Claude와 Codex를 동시에 다른 각도로 돌리면 한쪽 엔진의 편향을 상쇄한다

Sub-agent Fan-out — 리서치·의사결정 때만

적절한 용도

10+ 각도로 연구 질문 탐색
아키텍처 결정 전 카운슬
광범위 산업 사례 수집
10~20 서브에이전트 동시 실행

쓰지 말 것

단일 파일 버그 수정
타겟 코드 리뷰
순차적으로 엮인 구현
토큰 · 컨텍스트 폭증

20~50 워커 팬아웃은 research / decision / council에서만 정당화된다

MCP — Model Context Protocol

What
Anthropic 표준 · AI ↔ 외부 도구 공통 인터페이스
LSP of agent tools
Why
도구마다 별도 통합 코드 없이 · 표준 프로토콜로 연결
서버 한 번, 모든 에이전트에서 재사용
How
JSON-RPC 기반 stdio / HTTP 서버
도구 스키마를 에이전트에 노출

Claude Code, Cursor, Codex 등 여러 에이전트가 같은 MCP 서버를 공유 가능

실전 MCP — 많이 쓰는 서버

browser

claude-in-chrome
탭 제어 · 페이지 읽기 · JS 실행
스크린샷 GIF

codex

Codex CLI를 MCP 서버로 등록
교차 검증 · 리뷰 호출
codex mcp-server

integrations

GitHub / GitLab / Jira
Slack / Gmail / Calendar
사내 API (별도 서버 구현)

필요한 도구가 MCP 서버로 이미 있을 가능성이 높다 — 먼저 탐색

설정 — .mcp.json과 Deferred Tools

.mcp.json
{
  "mcpServers": {
    "codex": {
      "command": "codex",
      "args": ["mcp-server"]
    },
    "chrome": {
      "command": "npx",
      "args": ["@anthropic/claude-in-chrome"]
    }
  }
}
Deferred Tools

필요할 때만 스키마 로드 — 시작 컨텍스트 절약

ToolSearch

키워드나 select:Name으로 필요 툴만 활성화

결과물을 고치지 말고
생성기를 고쳐라

AI 산출물을 매번 손보는 대신 프롬프트 · Skill · 규칙을 개선 — 이후 모든 산출물이 함께 나아진다

TDD + Claude Code — 테스트 먼저

1
실패하는 테스트를 먼저 작성
동작 사양을 코드로 고정
2
"이 테스트가 통과하도록 구현해줘"
에이전트가 자율 루프
3
테스트 녹색 → 리팩터링 지시
계약 유지하며 구조 개선
4
PR 생성 전 Codex 교차 리뷰
독립 엔진의 2차 확인

테스트가 사양이자 에이전트 자율 작업의 종료 조건 — 불분명한 지시 제거

PR 리뷰 — 두 엔진 병렬

Claude Sonnet 리뷰

로직 정합성
프로젝트 컨벤션 일치
테스트 커버리지

/codex:review --background

보안 체크 (OWASP)
엣지 케이스 탐색
성능 리스크

/codex:adversarial

가정을 공격
설계 결정 스트레스 테스트

세 리뷰 결과를 메인 에이전트가 합성 — 겹치는 항목은 high-confidence

디버깅 — 가설 경쟁 패턴

1
/plan으로 증상 재현 계획
입력·환경·예상 출력 고정
2
debugger 에이전트 — 5~8 가설 병렬
경쟁하는 원인 후보를 FAST로 스크린
3
/codex:rescue --background 독립 재현
다른 엔진의 2차 확인
4
git bisect + AI 해석으로 커밋 특정
원인 커밋에 이유 설명
5
회귀 테스트 + 수정 커밋
같은 버그가 다시 나지 않도록

"이 버그 고쳐줘" 한 줄보다 재현 조건 + 가설 경쟁이 훨씬 효율적

Git Worktree — 병렬 브랜치 작업

COMMAND
# 새 worktree
git worktree add ../feat-x feat-x

# 또는 Agent Team에서
EnterWorktree({branch:"feat-x"})

# 정리
ExitWorktree({keepBranch:true})
효과

팀원마다 격리된 디렉토리
메인 브랜치 오염 방지

주의

worktree isolation 플래그가 때때로 무시됨 — 실제 경로 확인

프롬프팅 — 네 가지 베이스 패턴

분석

"X를 읽고 Y 관점에서 요약"
읽기 + 구조화

생성

"이 컨벤션을 따라 Z 만들어"
참조 + 산출

변환

"A에서 B 형식으로 재구성"
입출력 명시

자동화

"이 절차를 스킬로 등록"
재사용 공정화

바로 시키지 말고 "먼저 조사해줘" — 컨벤션 파악부터 시키면 품질이 다르다

교차 검증 — AI가 AI를 검증

Claude
일차 산출 · 자체 분석
주 작업자
Codex
독립 엔진 2차 확인 · 상반 가설
다른 훈련 데이터
Gemini
긴 컨텍스트 통합 · 종합 판단
2M token window
사람
최종 판단 · 책임
수용 여부

같은 가설을 세 엔진이 동의하면 신뢰도 급상승, 엇갈리면 반드시 사람 판단

리서치 위임 — 의사결정 전 카운슬

researcher

스코프된 질문
Sonnet 기반 합성

mega-researcher

8~10 FAST + 3 DEEP
큰 결정 · 산업 스캔

council 패턴

10 관점 동시 수집
합의 vs 반대 지점 추출

리서치는 메인 컨텍스트 밖에서 — 결과 요약만 받아 토큰 예산 절약

Harness — 결과물이 아닌 생성기의 구성

구성 요소역할스코프
CLAUDE.md프로젝트 규칙 · AI 행동 정의per-repo
Custom Skills반복 작업을 한 단어 명령으로per-repo / global
Rules & Memory페르소나 · 세션 간 기억global · per-project
Agent Teams하위 에이전트 병렬 · 역할 분담runtime
Hooks · MCP이벤트 자동화 · 외부 도구 연결per-repo / global

남의 Harness보다 내가 쌓은 Harness — 만드는 과정이 곧 숙련

Hooks — 이벤트 훅으로 Claude를 길들인다

PreToolUse

도구 실행 직전 — 위험한 Bash 차단, 특정 경로 쓰기 방지, 사전 검증

UserPromptSubmit

사용자 입력 직후 — 프롬프트 증강, 자동 컨텍스트 주입, 팀 컨벤션 강제

PostToolUse

도구 실행 후 — 포매터 자동 실행, 테스트 자동 트리거, 로그 기록

Stop

세션 종료 시 — 알림, 상태 체크포인트, 남은 TODO 리마인드

// ~/.claude/settings.json
{"hooks": {
  "PreToolUse": [{"matcher":"Bash","hooks":[{"type":"command","command":"./guard-bash.sh"}]}],
  "PostToolUse": [{"matcher":"Write|Edit","hooks":[{"type":"command","command":"prettier --write $CLAUDE_FILE_PATHS"}]}]
}}

Claude가 한 번에 하나씩 따르는 규칙 → 훅은 자동 집행 — 지침과 행위의 간극을 메운다

Monitor tool — 폴링 대신 이벤트 스트리밍

Before — 폴링 (낭비)
while true; do
  npm run build
  sleep 30
done

idle 상태에도 토큰 소모, 실시간성 X

After — Monitor (이벤트 기반)
Monitor: npm run dev
  → stdout 한 줄마다
     task-notification 이벤트 발생

실제 스트리밍 될 때만 깨어남 — 대기 비용 0

쓰는 곳 — 개발서버 에러 감시, 로그 tail, CI 완료 대기, 긴 빌드, 테스트 스위트 첫 실패 캐치. 한 번 샷 "끝날 때까지 대기"는 Bash run_in_background로 충분.

/loop + ScheduleWakeup의 heartbeat 폴링이 아닌 외부 사건이 주도하는 흐름

Commands — 자주 쓰는 슬래시 명령

/help — 명령 목록·도움
/plan — 실행 전 계획만
/compact — 대화 요약 압축
/clear — 컨텍스트 초기화
/resume — 세션 복구
/mcp — MCP 서버 관리
/fast — 빠른 응답 모드
/codex:review — Codex 교차 리뷰
/codex:rescue — Codex에 위임
/chrome — 브라우저 자동화

Custom 명령은 ~/.claude/commands/*.md에 정의 — 팀과 공유 가능

~/.claude — 파일 구조

~/.claude/
├── CLAUDE.md              # 글로벌 프로필·원칙
├── settings.json         # 권한·env·hooks
├── keybindings.json      # 단축키
├── rules/                # 모듈형 규칙 @-import
│   ├── agent-teams.md
│   ├── coding-standards.md
│   └── memory.md
├── commands/             # Custom 슬래시 명령
├── skills/               # 재사용 절차
├── agents/               # 커스텀 서브에이전트
└── projects/<name>/memory/  # auto-memory

버전 관리 가능 (private repo) — 개인 Harness의 체계화

비용 · Rate Limit · 모델 티어

Opus 4.7
$$$
오케스트레이션 · 설계 결정만
Sonnet 4.6
$$
집중 구현 · 리뷰 · 일반 작업
Haiku 4.5
$
읽기 전용 탐색 · lookup

Rate limit 윈도: 5시간 · 7일 — 플랫폼 statusline에서 used_percentage · resets_at 확인. 3-teammate 팀은 3~4배 토큰 소모, 예산과 맞춰 운영

Eval · CI — 재현 가능한 품질 게이트

Golden Set
대표 입력·기대 출력 고정
regression 탐지
LLM-as-Judge
Claude가 출력 품질 채점
rubric 기반 자동화
CI 훅
PR에서 Skill·프롬프트 변경 시 자동 eval
품질 회귀 즉시 발견
장기 tracking
에이전트 출력 분포 · 실패 모드 기록
데이터 드리프트 관찰

프롬프트 = 코드 — 테스트 있는 코드만 프로덕션

실전 체크리스트 — 운영에 들어가기 전

CONTEXT

CLAUDE.md 정리 · Rules 모듈화

SECRETS

API 키 · 인증정보 레포 밖 격리

PERMISSIONS

settings.json 권한 명시 · bypass 금지

LOGS

에이전트 실행 로그 수집 · 재현성

COST CAP

프로젝트별 토큰 예산 · 알람

FALLBACK

모델 다운 시 대체 경로 · manual 모드

HUMAN

파괴적 작업은 확인 · 승인 게이트

SHARE

잘 되는 프롬프트·Skill 팀 레포에 커밋

PROMPT INJECTION

MCP가 읽는 외부 데이터 (PR 본문 · 이슈 · 웹페이지) 에 악의적 지시 포함 가능 — untrusted input으로 간주, 민감 작업은 별도 확인 게이트

PART III

Hands-on
Labs

4개 실습 · 직접 해보기 · 해본 것으로 바꾸기

오늘의 Lab 4개

Lab 0
일단 그냥 해보기 — 카카오톡 커뮤니티 심층 분석
AI 도구 생태계 트렌드 HTML 리포트
Lab 1
웹 리서치 — 논문급 리포트 만들기
스타일 지정 · 레퍼런스 전달 · 추가 지시
Lab 2
Skill Builder — 리포트 공장
결과물이 아니라 생성기를 만든다
Lab 3
자유 실습 — 칸반 / 업무 도구 / 리포트 대량 생산
지금까지 배운 것 총동원

각 Lab 끝에 막히면 옆자리와 공유 · 꼭 결과를 저장해 둘 것 (다음 Lab에서 재활용)

Lab 0 · 일단 그냥 해보기

OBJECTIVE

바이브코딩 x 클로드 코드 카카오톡 커뮤니티 로그 (627+명)를 Claude Code에 던져서 심층 분석 HTML 리포트를 받는다. 프롬프트 한 번 → 차트 포함 리포트 한 편

준비물

assets/labs/data/
KakaoTalk_20260415_2227_12_010_group.txt

진행 방식

프롬프트 붙여넣기 → 기다리기 → 결과 비교

산출물

result/ 폴더에 단일 HTML 리포트

Lab 0 · 프롬프트 — 그대로 붙여넣기

PROMPT — Claude Code
assets/labs/data/KakaoTalk_20260415_2227_12_010_group.txt
파일을 읽고 심층 분석해줘.
바이브코딩 x 클로드 코드 카카오톡 오픈채팅 커뮤니티 로그야.

[기본 통계] 메시지/참여자/활동 기간 · 시간대별 활동 · Top 15 참여자
[AI 도구 생태계] 언급된 도구 Top 15 · 맥락(긍/부/비교) · 조합 패턴
[업계 트렌드] 키워드 · 날짜별 화제 · 주목 받은 기능/업데이트 (대화 인용)
[실전 인사이트] 개발자 문제점 Top 10 · 유용 팁 · 비개발자 사례

결과를 HTML 보고서로 만들어줘.
- 다크 테마, 모던 디자인, 외부 라이브러리 없이 CSS로 차트
- 인용은 인용 블록, result/ 폴더에 저장하고 브라우저에서 열어줘

완성되면 옆자리와 비교 — 같은 프롬프트 · 다른 리포트가 나온다. 왜 다른지가 오늘 핵심

Lab 1 · 웹 리서치 — 논문급 리포트

주제 하나 골라서 · 웹 검색 · 분석 · HTML 리포트

주제 1

이란-미국 전쟁, 언제까지 진행될까?

주제 2

NVIDIA Vera Rubin 아키텍처와 반도체 업계 영향

주제 3

SSD의 미래와 HBM — AI 시대 스토리지 전환

주제 4

삼성전자 주가, 얼마까지 갈까?

자유 주제

본인 업무/관심 분야 — 진짜 궁금한 것으로 해야 결과물의 품질을 판단할 수 있다

Lab 1 · 리포트 품질 올리기 — 3가지 방법

A · 스타일 지정

"증권가 애널리스트 리포트 스타일로 다시 — 목표가 · 투자의견 · 리스크 요인 포함"

B · 레퍼런스 전달

구글에서 마음에 드는 리포트 URL을 찾아서
"이 리포트 느낌으로 만들어줘: [URL]"

C · 추가 지시

"차트 3개 추가" · "executive summary 맨 위" · "출처 각주로 정리"

반드시 저장! — Lab 2에서 이 리포트를 Skill의 원본으로 사용합니다

Lab 2 · Skill Builder — 결과물이 아닌 공장

BEFORE

Lab 1에서 좋은 리포트를 한 번 만들었다 — 다른 주제로 또 하려면 프롬프트부터 다시

AFTER — Skill

주제만 바꿔서 같은 품질의 리포트를 무한히 찍어낸다/research-report 한 줄

원칙: 좋은 결과가 나오면 그 재현 가능한 형태로 고정시켜라 — 프롬프트 → Skill → 팀 공유

Lab 2 · 만들고 · 돌리고 · 개선하기

STEP 1 · 시작
/skill-creator

Claude Code 내장 스킬 — 추가 설치 불필요

STEP 2 · 생성

방금 만든 리포트의 구조/스타일을 분석해서 /research-report Skill로 만들어줘 — 주제 입력 → 웹 검색 → HTML 자동 생성

STEP 3 · 테스트

/research-report
주제: "TSMC 3nm 양산 현황" · "AI 에이전트 시장 2026 전망"

Skill 파일 위치 — 개인: ~/.claude/skills/이름.md · 프로젝트: 프로젝트/.claude/skills/이름.md. 이 파일 하나 수정하면 앞으로 모든 리포트에 반영

Lab 3 · 자유 실습 — 3가지 트랙

A · 칸반보드

Backlog / In Progress / Review / Done · 드래그앤드롭 · 우선순위 색상 · LocalStorage · 단일 HTML

B · 내 업무 도구

스킬 매트릭스 · 리스크 히트맵 · 기술 로드맵 타임라인 · 주간 회의 안건 — 내가 진짜 쓸 것

C · Skill 대량 생산

Lab 2의 /research-report로 다른 주제 3~5개 연속 돌려보기 — 공장이 잘 돌아가는가 검증

핵심은 트랙 선택이 아니라 막혔을 때 어떻게 풀어나가는지 — 옆자리와 프롬프트를 공유하세요

Lab 회고 — 가져갈 한 가지씩

가장 놀란 순간

"이게 이렇게 된다고?" 싶었던 순간 하나

가장 막힌 구간

프롬프트를 몇 번 고쳤나 · 뭘 바꾸니 풀렸나

내일 바로 쓸 것

오늘 만든 Skill/도구 중에 내 워크플로에 붙일 것 하나

팀에 전파할 것

잘 되는 프롬프트 · Skill — 팀 레포에 커밋

Today’s Takeaway

함께 논의할 질문들

WORKFLOW

내 개발 워크플로에서 에이전트 루프로 옮길 구간은?

HARNESS

CLAUDE.md · Rules · Skills에 무엇을 적을까?

GUARDRAIL

어디까지 자율 실행 허용 · 어디는 사람 승인?

SHARE

프롬프트 · Skill · Harness를 팀에 어떻게 공유?

들어본 것에서
해본 것으로

좋더라, 별로더라, 이건 되겠네, 저건 안 되겠네 —
직접 경험한 사람의 판단이 필요한 시점

Q & A

질의 · 토론

AI 개발 도구 Hands-on · 2026. 4 · 김학민

1 / 1