LLM 기초 학습 자료
대상: C# 개발자 / 토목 엔지니어 (AI 입문자 기준) 기준일: 2026년 3월
1. 주요 AI 모델 현황
OpenAI
| 모델 | 특징 | 용도 |
|---|---|---|
| GPT-5 | 현재 ChatGPT 기본 모델. o3/GPT-4o 통합 후계. 전문가 수준 추론 | 범용 플래그십 |
| GPT-5.2 | ARC-AGI-1 90% 최초 돌파. 최고 성능 | 복잡한 추론/연구 |
| GPT-5 mini | 빠르고 저렴한 경량 버전 | 일반 코딩/반복 작업 |
| o3-deep-research | 심층 조사 전문 모델 | 리서치 자동화 |
GPT-4o, GPT-4.1, o4-mini는 2026년 2월 공식 은퇴
Anthropic
| 모델 | 특징 | 용도 |
|---|---|---|
| Claude Opus 4.6 | 최고 성능. 100만 토큰 컨텍스트. 14.5시간 작업 지속 | 고난도/장기 작업 |
| Claude Sonnet 4.6 | 성능/비용 균형. 대부분 사용자의 기본값 | 일반 개발 (이 템플릿 기본) |
| Claude Haiku 4.5 | 빠르고 저렴 | 단순 반복 작업 |
Claude 5 (코드명 “Fennec”) 출시 임박 예정
| 모델 | 특징 | 용도 |
|---|---|---|
| Gemini 3.1 Pro | 최고 성능 버전 (2026.2.19 출시) | 복잡한 분석 |
| Gemini 3 Flash | 속도/성능 균형, 광범위 사용 | 일반 용도 |
| Gemini 3.1 Flash Lite | 최저 비용($0.25/1M 토큰). 2.5X 속도 | RAG 검색 (hmeg-api에서 사용) |
| Gemini 3 Deep Think | 과학/연구 추론 특화 | 고난도 연구 |
오픈 모델 (자체 호스팅 가능)
| 모델 | 제공사 | 특징 |
|---|---|---|
| Llama 4 (671B MoE) | Meta | 37B 활성화. GPT-4o급 성능. 상업 이용 가능 |
| DeepSeek V3.2 (685B MoE) | DeepSeek | MIT 라이선스. 일부 추론 벤치마크서 GPT-5 초과 |
| Qwen3-235B | Alibaba | 코딩/수학 특화. 중국산 |
| Qwen3-Coder | Alibaba | 코딩 전용 경량. DeepSeek V3.2 능가 |
MoE(Mixture of Experts): 수백B 파라미터 중 추론 시 일부만 활성화 → 비용 효율적
오픈 모델은 사내 서버 설치 시 데이터 외부 유출 없이 사용 가능
2. AI 핵심 용어 정리
할루시네이션 (Hallucination)
AI가 사실이 아닌 내용을 자신감 있게 말하는 현상.
예: "HmEG에서 AddBox() 쓰면 됩니다"
→ 실제로는 AddShapeBox() 이지만 그럴듯하게 거짓말
대응: RAG로 실제 문서를 검색한 후 검색된 내용만 기반으로 답변
프론티어 모델 (Frontier Model)
현재 기술 한계를 밀어붙이는 최첨단 대형 모델. GPT-5, Claude Opus 4.6, Gemini 3.1 Pro 등이 해당. 반대: 소형 모델(Edge Model), 오픈 모델
하네스 (Harness)
강력한 AI 모델이 실제 업무에서 안정적·효과적으로 작동하도록 제어하고 지원하는 주변 인프라 및 운영 소프트웨어 레이어.
말에 마구(하네스)를 채워 힘을 효율적으로 제어하듯, AI 모델의 잠재력을 실제 목적에 맞게 길들여 사용하기 위한 기술적 장치.
AI 모델 단독 = 강력하지만 통제 어려움
AI 모델 + 하네스 = 안정적으로 업무에 활용 가능
하네스의 구성 예:
- 프롬프트 관리 (CLAUDE.md, Commands)
- 검증/품질 게이트 (validation-gates)
- 안전 장치 (Hooks - 위험 명령 차단)
- 외부 도구 연동 (Skills - hmeg-api RAG)
이 Context Engineering Template 전체가 Claude Code를 위한 하네스.
컨텍스트 / 컨텍스트 윈도우 (Context Window)
AI가 한 번에 처리할 수 있는 텍스트의 최대 양.
Claude Opus 4.6: 20만 토큰 (약 75만 단어)
컨텍스트에 포함되는 것:
이전 대화 전체 / CLAUDE.md / 읽은 파일 / Skill 검색 결과
꽉 차면 오래된 내용부터 잊어버림 (자동 압축).
토큰 (Token)
AI가 텍스트를 처리하는 최소 단위.
"Hello World" = 2 토큰
"안녕하세요" = 3~5 토큰 (한글은 영어보다 토큰 소비 많음)
코드 1줄 = 평균 10~20 토큰
비용 = 입력 토큰 수 × 단가 + 출력 토큰 수 × 단가
RAG (Retrieval-Augmented Generation)
외부 문서를 검색하여 AI 응답에 활용하는 기법.
기존: AI 학습 데이터만 사용 → 할루시네이션
RAG: 질문 → 관련 문서 검색 → 검색 결과 + AI 생성 → 정확한 답변
이 프로젝트: HmEG.md → Gemini 벡터 스토어 → 검색 → 정확한 C# 코드
임베딩 (Embedding)
텍스트를 숫자 벡터로 변환하는 것. RAG의 핵심 기술.
"AddBox" → [0.23, -0.51, 0.88, ...]
"박스 추가" → [0.21, -0.49, 0.85, ...] ← 의미 비슷 → 벡터도 비슷
→ "박스 추가해줘" 검색 시 "AddBox" 관련 문서 자동으로 찾아냄
프롬프트 / 시스템 프롬프트
- 프롬프트: AI에게 전달하는 모든 입력 텍스트
- 시스템 프롬프트: 대화 시작 전 AI 역할/규칙을 정의하는 숨겨진 지시
시스템 프롬프트 예:
"당신은 HmEG 전문 C# 개발자입니다. using 블록을 항상 사용하세요."
→ CLAUDE.md가 이 역할을 담당
RL / RLHF (Reinforcement Learning from Human Feedback)
사람의 피드백으로 AI를 강화 학습시키는 기법. GPT, Claude 등 현재 주요 모델의 핵심 학습 방법.
AI 응답 → 사람이 좋다/나쁘다 평가 → 좋은 응답 강화 → 반복
PRP (Product Requirements Prompt)
이 템플릿의 독자적 개념. AI가 기능을 구현하기 위한 구조화된 작업 지시서. 일반 소프트웨어의 PRD(Product Requirements Document)를 AI용으로 변환한 것.
MCP (Model Context Protocol)
Anthropic이 만든 AI ↔ 외부 도구 연동 표준 프로토콜.
Claude ←→ MCP ←→ 파일시스템 / 데이터베이스 / 외부 API
이 프로젝트는 MCP 직접 설정 대신 Skills로 래핑하여 사용.
마크다운 (Markdown, .md)
간단한 기호로 서식을 표현하는 경량 문서 형식.
# 제목 1 / ## 제목 2
**굵게** / *기울임*
- 목록 / `코드`AI 대화, CLAUDE.md, PRP, README 등 전반에 표준으로 사용.
MoE (Mixture of Experts)
대형 모델의 효율화 아키텍처. 전체 파라미터 중 일부만 선택적으로 활성화.
DeepSeek V3.2: 685B 전체 파라미터, 추론 시 37B만 활성화
→ 작은 모델 비용으로 큰 모델 성능
2025~2026년 오픈 모델의 주요 트렌드.
Tool Calling / 에이전트 (Agent)
- Tool Calling: AI가 외부 함수/도구를 직접 호출하는 기능
- 에이전트: 도구를 사용하며 여러 단계를 자율적으로 수행하는 AI
에이전트 동작:
목표 → 계획 → 도구 호출 → 결과 확인 → 수정 → 완료 (자율 반복)
Claude Code = 에이전트 / Subagent = 전문 역할의 하위 에이전트
3. 추가 권장 학습 개념
| 개념 | 한 줄 설명 | 우선순위 |
|---|---|---|
| API 키 관리 | AI 서비스 접근 자격증명 보안 관리 | 높음 |
| 파인튜닝 | 기존 모델을 특정 도메인 데이터로 추가 학습 (RAG보다 비용 큼) | 중간 |
| Temperature | AI 응답 창의성/무작위성 조절 (0=정확, 1=창의) | 중간 |
| 프롬프트 인젝션 | 악의적 입력으로 AI 조작 시도 (보안 위협) | 높음 |
| 멀티모달 | 텍스트 외 이미지/음성 처리 (토목 도면 분석 등 활용 가능) | 중간 |
| 컨텍스트 압축 | 긴 대화에서 오래된 내용을 요약하여 토큰 절약 | 낮음 |