데브허브 | DEVHUB | Obsidian + Ollama with MCPHost — Step-by-Step GuideObsidian + Ollama with MCPHost — Step-by-Step Guide
- Obsidian MCP 서버를 Ollama 로컬 모델 및 OpenAI API와 연동하여 개인 노트를 클라우드 제약 없이 안전하게 활용하는 방법을 소개합니다. 🛡️
- 이 가이드는 터미널 사용에 익숙한 개발자 지향적이며, UV(Python 패키지 관리 도구) 및 Ollama 설치부터 시작하는 자세한 단계별 설정 과정을 다룹니다. 🧑💻
- Ollama 모델은 툴 호출 기능이 있는 모델(예: Qwen3, Llama 3.2)을 사용해야 하며, Gemma 3와 같은 모델은 툴 호출 기능이 없어 MCP 서버에 적합하지 않습니다. 🛠️
- MCPhost는 Ollama 모델이 Obsidian 볼트와 같은 외부 툴에 접근할 수 있도록 중개자 역할을 하며, Go를 통해 설치됩니다. 🔗
~/.mcp.json 파일을 편집하여 Obsidian MCP 서버와 Obsidian Local REST API 키를 설정함으로써 볼트와의 연결을 구성합니다. 📝
mcphost -m olama:<모델명> 명령어를 사용하여 Ollama 모델로 볼트의 파일 목록을 조회하고 내용을 요약하는 등 상호작용할 수 있습니다. 💬
- 로컬 모델 사용 시 대규모 컨텍스트 처리에서 높은 GPU 사용량과 긴 처리 시간이 발생할 수 있으며, 하드웨어 성능에 따라 제한이 있을 수 있습니다. 📈
- 볼트에 새 노트를 생성하거나 기존 노트를 수정하는 기능도 시연되었으나,
patch content 툴 사용이나 새 폴더 생성 방식에서 예상치 못한 동작이 관찰되었습니다. ✍️
- Devstrol 24B와 같은 일부 로컬 모델은 파일 목록 조회에 실패하는 등 기능적 한계를 보일 수 있어, 모델 선택의 중요성을 시사합니다. 🚧
- OpenAI의 GPT-4o Mini와 같은 API 모델로 전환하여 Obsidian 볼트와 원활하게 상호작용하고, 파일 목록 조회, 요약, 볼트 구조 색인화 등 고급 기능을 활용할 수 있습니다. 🚀
- 모델이 볼트의 계층적 구조를 더 잘 이해하도록
index 파일에 전체 볼트 구조를 추가하여 향후 쿼리 정확도를 높이는 방법을 시연합니다. 🧠
- 음성 인터페이스를 통해 컴퓨터와 대화하는 것이 미래 업무 방식의 중요한 부분이 될 것이라고 강조합니다. 🗣️
- 추가 자료(설정 가이드, 뉴스레터, Discord, AI 엔지니어 로드맵 코스)를 통해 더 깊이 학습할 수 있습니다. 📚