데브허브 | DEVHUB | 「これを知らずにAIエージェントは作れない。」Award受賞講師が核心ノウハウを完全公開「これを知らずにAIエージェントは作れない。」Award受賞講師が核心ノウハウを完全公開
- RAG(Retrieval Augmented Generation)는 LLM의 고유한 한계를 보완하기 위해 등장한 핵심 프레임워크이며, 에이전트 시스템을 통해 RAG의 한계 또한 보완하려는 노력이 진행 중입니다. 💡
- LLM(Large Language Model)은 사전 학습된 데이터 외 정보에 취약하여 거짓 정보를 생성하는 '환각 현상'이라는 고질적인 문제를 가지고 있습니다. 👻
- LLM은 대화 중 사용자로부터 받은 정보를 기억하거나 학습하지 못하며, 이는 대화 기록이 앱 수준에서 관리되는 것과 다릅니다. 🧠
- LLM은 GPT 아키텍처의 특성상 입력 토큰이 증가할수록 계산량이 기하급수적으로 늘어나, API 제공 기업들이 토큰 제한을 두고 있습니다. 📏
- RAG는 AI 모델이 외부 데이터베이스(VectorDB)에서 관련 정보를 검색(Retriever)하고, 이를 사용자 질문과 결합(Augmented)하여 LLM이 더 정확하고 최신 답변을 생성(Generation)하도록 돕는 기술입니다. 📚
- RAG 시스템은 사용자 질문에 대한 힌트가 될 수 있는 문서를 VectorDB에서 찾아 LLM에 함께 제공함으로써, LLM의 정보 부족 문제를 해결합니다. 🔍
- RAG의 핵심 파이프라인은 '사용자 질문 -> VectorDB에서 힌트 검색 -> 질문과 힌트 결합 -> LLM 답변 생성'으로 구성됩니다. ⚙️