How to Run FREE AI Models in n8n Using Docker (Step-by-Step)
- 이 비디오는 n8n에서 Docker 모델 러너를 활용하여 무료 AI 모델을 실행하는 방법을 단계별로 안내합니다. 🐳
- Docker 모델 러너는 Ollama의 대안으로, 로컬에서 오픈 소스 모델을 다운로드 및 실행하며, 네이티브 GPU 가속을 지원합니다. 🚀
- 기존 Docker 환경(n8n, PostgreSQL)에 모델을 통합하여 편리하게 관리하고 사용할 수 있습니다. 💻
- Docker Desktop의 'Models' 메뉴에서 Docker Hub를 통해 Llama 3.2, GPT OSS, Nomic embed text 등 다양한 모델을 쉽게 다운로드할 수 있습니다. 📥
- 다운로드된 모델은 Docker Desktop, 터미널 또는 OpenAI API와 호환되는 REST API를 통해 외부 애플리케이션에서 접근 가능합니다. 🌐
- n8n과 연동 시 OpenAI Chat 노드를 사용하며, API 키는 임의로 입력하고 기본 URL을 Docker 모델 러너 엔드포인트로 변경해야 합니다. 🔗
- n8n 실행 환경에 따라 기본 URL은
localhost:포트/engines/lama.cpp1 (Docker 외부) 또는 model-runner.docker.internal/engines/lama.cpp1 (Docker 내부)로 설정됩니다. 🔄
- 임베딩 모델(예: Nomic embed text)은 n8n의 PostgreSQL PG Vector Store 노드에서 'embeddings open AI'를 선택하여 지식 기반 검색에 활용할 수 있습니다. 🧠
- 이 설정은 대화 기록 및 지식 기반을 위한 완전한 로컬 AI 솔루션을 제공하여 비용 효율적인 AI 개발을 가능하게 합니다. ✨