【오픈소스 로컬 LLM 활용] OpenWebUI와 MCP 통합 가이드 (실습파일 제공)
- OpenWebUI에서 MCP 서버를 등록하여 오픈소스 모델 활용하는 방법 소개 ⚙️
- 도커 컴포즈 기반으로 OpenWebUI 설치 및 올라마 기본 포트 확인 🐳
- 설치 스크립트 또는 수동 설치를 통해 MCP 서버 등록 가능 🛠️
- 웹사이트 URL 패치 및 한국 시간 확인 MCP 서버 두 가지 예시 제공 🌐
- OpenWebUI 컨테이너는 3000번, MCP 프락시 컨테이너는 8000번 포트에서 실행 🚦
- OpenWebUI 관리자 계정 생성 후 올라마 모델(Gemmma, Mistral) 다운로드 및 설정 👤
- MCP 설정 파일에서 로컬 호스트 8000번 포트로 도구 서버 등록 📍
- OpenAI API 키를 연결하여 GPT 모델을 OpenWebUI에서 사용 가능 🔑
- 도구 호출을 통해 날짜/시간 정보 획득 및 웹 페이지 내용 추출 테스트 🤖
- 오픈소스 모델(Gemmma)과 GPT 모델 간의 응답 차이 확인 및 활용 💡