LLM 기초 학습 자료

대상: C# 개발자 / 토목 엔지니어 (AI 입문자 기준) 기준일: 2026년 3월


1. 주요 AI 모델 현황

OpenAI

모델특징용도
GPT-5현재 ChatGPT 기본 모델. o3/GPT-4o 통합 후계. 전문가 수준 추론범용 플래그십
GPT-5.2ARC-AGI-1 90% 최초 돌파. 최고 성능복잡한 추론/연구
GPT-5 mini빠르고 저렴한 경량 버전일반 코딩/반복 작업
o3-deep-research심층 조사 전문 모델리서치 자동화

GPT-4o, GPT-4.1, o4-mini는 2026년 2월 공식 은퇴

Anthropic

모델특징용도
Claude Opus 4.6최고 성능. 100만 토큰 컨텍스트. 14.5시간 작업 지속고난도/장기 작업
Claude Sonnet 4.6성능/비용 균형. 대부분 사용자의 기본값일반 개발 (이 템플릿 기본)
Claude Haiku 4.5빠르고 저렴단순 반복 작업

Claude 5 (코드명 “Fennec”) 출시 임박 예정

Google

모델특징용도
Gemini 3.1 Pro최고 성능 버전 (2026.2.19 출시)복잡한 분석
Gemini 3 Flash속도/성능 균형, 광범위 사용일반 용도
Gemini 3.1 Flash Lite최저 비용($0.25/1M 토큰). 2.5X 속도RAG 검색 (hmeg-api에서 사용)
Gemini 3 Deep Think과학/연구 추론 특화고난도 연구

오픈 모델 (자체 호스팅 가능)

모델제공사특징
Llama 4 (671B MoE)Meta37B 활성화. GPT-4o급 성능. 상업 이용 가능
DeepSeek V3.2 (685B MoE)DeepSeekMIT 라이선스. 일부 추론 벤치마크서 GPT-5 초과
Qwen3-235BAlibaba코딩/수학 특화. 중국산
Qwen3-CoderAlibaba코딩 전용 경량. DeepSeek V3.2 능가

MoE(Mixture of Experts): 수백B 파라미터 중 추론 시 일부만 활성화 → 비용 효율적

오픈 모델은 사내 서버 설치 시 데이터 외부 유출 없이 사용 가능


2. AI 핵심 용어 정리

할루시네이션 (Hallucination)

AI가 사실이 아닌 내용을 자신감 있게 말하는 현상.

예: "HmEG에서 AddBox() 쓰면 됩니다"
    → 실제로는 AddShapeBox() 이지만 그럴듯하게 거짓말

대응: RAG로 실제 문서를 검색한 후 검색된 내용만 기반으로 답변


프론티어 모델 (Frontier Model)

현재 기술 한계를 밀어붙이는 최첨단 대형 모델. GPT-5, Claude Opus 4.6, Gemini 3.1 Pro 등이 해당. 반대: 소형 모델(Edge Model), 오픈 모델


하네스 (Harness)

강력한 AI 모델이 실제 업무에서 안정적·효과적으로 작동하도록 제어하고 지원하는 주변 인프라 및 운영 소프트웨어 레이어.

말에 마구(하네스)를 채워 힘을 효율적으로 제어하듯, AI 모델의 잠재력을 실제 목적에 맞게 길들여 사용하기 위한 기술적 장치.

AI 모델 단독 = 강력하지만 통제 어려움
AI 모델 + 하네스 = 안정적으로 업무에 활용 가능

하네스의 구성 예:
  - 프롬프트 관리 (CLAUDE.md, Commands)
  - 검증/품질 게이트 (validation-gates)
  - 안전 장치 (Hooks - 위험 명령 차단)
  - 외부 도구 연동 (Skills - hmeg-api RAG)

이 Context Engineering Template 전체가 Claude Code를 위한 하네스.


컨텍스트 / 컨텍스트 윈도우 (Context Window)

AI가 한 번에 처리할 수 있는 텍스트의 최대 양.

Claude Opus 4.6: 20만 토큰 (약 75만 단어)

컨텍스트에 포함되는 것:
  이전 대화 전체 / CLAUDE.md / 읽은 파일 / Skill 검색 결과

꽉 차면 오래된 내용부터 잊어버림 (자동 압축).


토큰 (Token)

AI가 텍스트를 처리하는 최소 단위.

"Hello World" = 2 토큰
"안녕하세요"  = 3~5 토큰  (한글은 영어보다 토큰 소비 많음)
코드 1줄      = 평균 10~20 토큰

비용 = 입력 토큰 수 × 단가 + 출력 토큰 수 × 단가

RAG (Retrieval-Augmented Generation)

외부 문서를 검색하여 AI 응답에 활용하는 기법.

기존: AI 학습 데이터만 사용 → 할루시네이션
RAG: 질문 → 관련 문서 검색 → 검색 결과 + AI 생성 → 정확한 답변

이 프로젝트: HmEG.md → Gemini 벡터 스토어 → 검색 → 정확한 C# 코드


임베딩 (Embedding)

텍스트를 숫자 벡터로 변환하는 것. RAG의 핵심 기술.

"AddBox"  → [0.23, -0.51, 0.88, ...]
"박스 추가" → [0.21, -0.49, 0.85, ...]  ← 의미 비슷 → 벡터도 비슷
→ "박스 추가해줘" 검색 시 "AddBox" 관련 문서 자동으로 찾아냄

프롬프트 / 시스템 프롬프트

  • 프롬프트: AI에게 전달하는 모든 입력 텍스트
  • 시스템 프롬프트: 대화 시작 전 AI 역할/규칙을 정의하는 숨겨진 지시
시스템 프롬프트 예:
  "당신은 HmEG 전문 C# 개발자입니다. using 블록을 항상 사용하세요."
→ CLAUDE.md가 이 역할을 담당

RL / RLHF (Reinforcement Learning from Human Feedback)

사람의 피드백으로 AI를 강화 학습시키는 기법. GPT, Claude 등 현재 주요 모델의 핵심 학습 방법.

AI 응답 → 사람이 좋다/나쁘다 평가 → 좋은 응답 강화 → 반복

PRP (Product Requirements Prompt)

이 템플릿의 독자적 개념. AI가 기능을 구현하기 위한 구조화된 작업 지시서. 일반 소프트웨어의 PRD(Product Requirements Document)를 AI용으로 변환한 것.


MCP (Model Context Protocol)

Anthropic이 만든 AI ↔ 외부 도구 연동 표준 프로토콜.

Claude ←→ MCP ←→ 파일시스템 / 데이터베이스 / 외부 API

이 프로젝트는 MCP 직접 설정 대신 Skills로 래핑하여 사용.


마크다운 (Markdown, .md)

간단한 기호로 서식을 표현하는 경량 문서 형식.

# 제목 1 / ## 제목 2
**굵게** / *기울임*
- 목록  /  `코드`

AI 대화, CLAUDE.md, PRP, README 등 전반에 표준으로 사용.


MoE (Mixture of Experts)

대형 모델의 효율화 아키텍처. 전체 파라미터 중 일부만 선택적으로 활성화.

DeepSeek V3.2: 685B 전체 파라미터, 추론 시 37B만 활성화
→ 작은 모델 비용으로 큰 모델 성능

2025~2026년 오픈 모델의 주요 트렌드.


Tool Calling / 에이전트 (Agent)

  • Tool Calling: AI가 외부 함수/도구를 직접 호출하는 기능
  • 에이전트: 도구를 사용하며 여러 단계를 자율적으로 수행하는 AI
에이전트 동작:
  목표 → 계획 → 도구 호출 → 결과 확인 → 수정 → 완료 (자율 반복)

Claude Code = 에이전트 / Subagent = 전문 역할의 하위 에이전트

3. 추가 권장 학습 개념

개념한 줄 설명우선순위
API 키 관리AI 서비스 접근 자격증명 보안 관리높음
파인튜닝기존 모델을 특정 도메인 데이터로 추가 학습 (RAG보다 비용 큼)중간
TemperatureAI 응답 창의성/무작위성 조절 (0=정확, 1=창의)중간
프롬프트 인젝션악의적 입력으로 AI 조작 시도 (보안 위협)높음
멀티모달텍스트 외 이미지/음성 처리 (토목 도면 분석 등 활용 가능)중간
컨텍스트 압축긴 대화에서 오래된 내용을 요약하여 토큰 절약낮음