- n8n AI 에이전트를 무료로, 그리고 개인적으로 로컬에서 구동하는 방법을 설명합니다. 💡
- AI 스타터 키트를 사용하여 n8n을 로컬에 자체 호스팅하는 것이 전제 조건입니다. 🛠️
- Olama를 활용하여 다양한 오픈소스 AI 모델을 설치하고 관리합니다. 🧠
olama.com/models에서 원하는 모델을 선택한 후, Docker의 Olama 컨테이너exec탭에서ollama pull [모델명]명령어로 쉽게 설치할 수 있습니다. 🚀- 설치된 모델은 n8n의 Olama 노드에서 즉시 선택하여 사용할 수 있으며, 변경 사항은 실시간으로 반영됩니다. ✅
- 오픈소스 모델은 클로즈드 소스 모델(예: GPT-4)보다 파라미터 수가 적어 성능에 한계가 있으며, 로컬 머신 사양에 따라 성능이 달라집니다. 📉
- 간단한 대화에는 작은 모델도 충분하지만, 툴 호출 등 복잡한 에이전트 기능에는 14B 또는 32B 이상의 모델을 사용하는 것이 좋습니다. ⚖️
ollama list명령어로 설치된 모델 목록을 확인하고,ollama rm [모델명]명령어로 모델을 쉽게 삭제할 수 있습니다. 🗑️- 이 모든 과정은 무료로 진행되며, 개인 PC에서 로컬로 실행되어 데이터 프라이버시가 보장됩니다. 🔒





