- RAG 시스템 튜닝은 청크 튜닝, 임베딩 튜닝, 키워드 튜닝, 리랭킹 튜닝, 프롬프트 튜닝으로 구성되며, 각 단계별로 LLM을 활용하여 최적화합니다. 🛠️
- 청크 튜닝은 PDF 문서를 어떻게 쪼개서 벡터 DB에 넣을지 결정하는 과정으로, LLM을 통해 청크의 적절성(유사도, 독립성, 의미론적 완전성)을 평가합니다. 🧩
- 임베딩 튜닝은 검색 품질을 높이기 위해 LLM을 사용하여 질문을 생성하고, 검색 결과와 비교하여 임베딩 모델의 성능을 평가하고 개선합니다. 🔍
- 키워드 튜닝은 임베딩 검색의 한계를 보완하기 위해 BM25, 엘라스틱서치 같은 키워드 검색을 추가하여 검색 정확도를 높이는 방법입니다. 🔑
- 리랭킹 튜닝은 검색 결과의 순위를 재조정하여 관련성 높은 정보를 우선적으로 제공하기 위해 크로스 인코더 리랭커나 LLM을 활용합니다. 🥇
- 프롬프트 튜닝은 최종 답변의 품질을 결정하는 중요한 단계로, 검색 결과를 효과적으로 반영하고 편향을 줄이는 방향으로 프롬프트를 개선합니다. 💬
- LLM을 활용한 튜닝 시에는 모델의 크기와 성능을 고려해야 하며, 큰 데이터셋을 처리하기 위해서는 고성능 모델이 필요합니다. 🧠
- 청크를 잘못 자르면 그 뒤에 어떤 튜닝을 해도 소용없게 되므로, 청크 튜닝이 매우 중요합니다. ✂️
- 임베딩 모델의 성능이 낮으면 검색 결과가 만족스럽지 않으므로, 최신 임베딩 모델을 사용하거나 임베딩 방법을 변경해야 합니다. ⬆️
- 사용자 지리를 LLM에게 던져서 엘라스틱서치에 던질 만한 키워드만 추출하는 과정을 거쳐야 검색 결과가 좋아집니다. 🎯