LLM 생성형 AI 심화 실무과정 : 총 120시간
(1주에 10시간, 12주 과정)
* 과정 목표: 본 과정은 단순한 AI 활용 교육을 넘어, 데이터 엔지니어링부터 sLLM 최적화 및 RAG 기반 에이전트 통합까지, 기업형 LLM AI 시스템의 전 주기를 설계·구현·운영하는 최상위 실무 전문가 양성을 목표로 한다.
Part1: 생성형 AI 기초 및 고속 개발 실무 (1~3주차 / 총 30시간)
1주차: 생성형 AI 개요 및 핵심 원리 (10h)
생성형 AI의 정의, 역사, 주요 활용 사례
기초 머신러닝·딥러닝 개념과 기본구조 복습
Transformer 구조와 Attention 메커니즘 이해
2주차: 개발 환경 구축 & 바이브코딩 입문 (10h)
PyTorch 기초 / Hugging Face / OpenAI API 사용법
바이브코딩(Vibe Coding) 실습 (Cursor AI, Antigravity) / 실습 중심 코딩 가속
3주차: 생성형 AI 모델 유형 심화 (10h)
GAN 작동 원리/ VAE (Variational Autoencoder) / Transformer 기반 LLM
Diffusion 모델 / VLM (Vision-Language Model) / OpenAI API 심화 활용
(실습): 1. OpenAI API와 Cursor AI를 활용하여 바이브코딩(Vibe Coding)을 통해 실제 웹 서비스를 구축하며 코딩 가속을 직접 체감한다. 2. Hugging Face 라이브러리로 Transformer 기반 LLM과 Diffusion 모델을 호출해 보고, 텍스트와 이미지 생성 결과를 비교하며 각 모델의 특성을 익혀본다.
Part2: 고성능 LLM 개발을 위한 데이터 엔지니어링 (4~5주차 / 총 20시간)
4주차: LLM 학습용 데이터 전처리 기초 (10h)
텍스트 정제 (Text Cleaning) / 정규화 (Normalization)
문장 단위 분할 (Sentence Segmentation) / 토크나이징 (Tokenization)
라벨링 및 데이터 포맷 구성 / 포맷 변환(JSON, Instruction Format 등)
5주차: Context 중심 데이터 품질 설계 (10h)
데이터 품질 검증 / 데이터 밸런싱 / Contextual Window를 고려한 데이터 구성
In-Context Learning 데이터 포맷 설계 / Pretrain-safe Content Filtering 적용 실습
(실습): 1. 원천 텍스트 데이터를 정제하고 토크나이징을 거쳐 LLM 학습에 적합한 JSON 또는 Instruction Format 데이터셋으로 변환하는 파이프라인을 구축해본다. 2: In-Context Learning 데이터 포맷을 설계하고, 데이터 밸런싱 및 필터링 실습을 통해 학습 데이터의 품질이 모델 성능에 미치는 영향을 검증해본다.
Part3: 도메인특화 sLLM 최적화 실무 (6~7주차 / 총 20시간)
6주차: 효율적 파인튜닝 기법 실습 (10h)
Fine-tuning 기법 비교: Full Fine-tuning / LoRA / QLoRA / PEFT
저사양·고효율 파인튜닝 전략 실습
7주차: 도메인 특화 sLLM 구축 (10h)
Open-source LLM 기반 sLLM 구축
성능 평가 지표 설정 / 성능 개선 전략
조직·도메인 특화 LLM 실습: 사내 문서 QA, 전문 상담·지식 응답 모델
(실습): 1 LoRA나 QLoRA와 같은 PEFT 기법을 사용하여 저사양 GPU 환경에서도 오픈소스 LLM을 효율적으로 파인튜닝하는 과정을 실습한다. 2 사내 문서 QA나 전문 상담 모델 등 실제 도메인 특화 데이터를 활용해 sLLM을 구축하고, 설정한 성능 지표에 따라 결과물을 평가 및 개선하는 실습
Part4: 지식 연결 RAG & 엔터프라즈 서빙 시스템 (8~9주차 / 총 20시간)
8주차: RAG 서비스 아키텍처 구축 (10h)
VectorDB 구축 / 임베딩 전략 / Graph RAG 개념 및 적용
지식 검색 기반 서비스 설계
9주차: 고성능 LLM 서빙 및 API 배포 (10h)
vLLM 기반 LLM 서빙 / 추론 성능 최적화 / 실전 API 배포
서비스 안정성 고려사항
(실습): 1 VectorDB와 임베딩 전략을 결합한 RAG 아키텍처를 설계하고, 더 정교한 검색을 위해 Graph RAG 개념을 적용해 보는 실습. 2 vLLM을 활용해 구축한 sLLM의 추론 성능을 최적화하고, 실전 API 배포를 통해 서비스의 안정성을 확보하는 기술적 과정을 익히는 것이 핵심
Part5: 자율형 AI 에이전트 & 캡스톤 프로젝트 (10~12주차 / 총 30시간)
10주차: AI Agent 개념 및 설계 (10h)
AI Agent 개념과 아키텍처 / MCP (Multi-Component Prompt)
LangGraph 기반 Agent 설계 / Tool Calling / Memory 관리 / Workflow 제어
11주차: 통합 AI 애플리케이션 개발 (10h)
RAG + sLLM + Agent 통합 / 업무 자동화 시나리오 구현
의사결정 지원 Agent / 지식 검색 Agent
(실습): 1. LangGraph와 MCP(Multi-Component Prompt)를 활용해 Tool Calling과 메모리 관리가 가능한 자율형 AI 에이전트의 워크플로우를 설계 해본다. 2. 이전 Part에서 만든 RAG와 sLLM을 통합하여 업무 자동화 시나리오를 구현하고, 실제 동작 가능한 포트폴리오 수준의 AI 앱을 만들어본다.
12주차: 캡스톤프로젝트 프로젝트 완성 & 발표 (10h)
전체 시스템 최적화 / 실제 동작 가능한 AI Agent 앱 완성
포트폴리오 수준 결과물 정리 / 프로젝트 발표 및 피드백
