데브허브 | DEVHUB | Ollama + n8n 연동으로 로컬 AI | Llama3.2 vs Gemma2 이미지 분석
+) 추가 내용
1. 24-11-07 기준 현재 Ollama 0.4.0 은 업데이트 기능이 추가 됐습니다.
2. 02:51 부분에 편집돼서 안보이지만 ## Setup Guide의 ngrok http 11434 --host-header="localhost:11434" 을 입력하시면 됩니다.
Local LLM Setup with Ollama & n8n Integration
Environment
```
Ollama Server:
Ollama 0.4.0
Models: Llama3.2-vision:11b, Gemma2:2b
OS: Windows 11
GPU: RTX 4070 Ti
Server:
OS: Ubuntu 22.04 LTS
n8n
```
Setup Guide
1. Download Ollama 0.4.0: `github.com/ollama/ollama/releases`
2. Download Llama3.2-vision:11b: `ollama.com/x/llama3.2-vision:11b`
3. Configure ngrok for external access:
```bash
ngrok http 11434 --host-header="localhost:11434"
```
Implementation Details
본 영상에서는 로컬 LLM 모델을 외부 서비스(n8n)에서 접근하여 이미지 분석을 수행하는 방법을 다룹니다.
Llama3.2 가 이미지 분석이 된다는 점을 확인합니다.
Gemma2:2b는 이미지 분석이 안 됩니다.
테스트된 접근 방식:
1. ✅ 로컬 챗봇 직접 사용
2. ✅ HTML 인터페이스 구현
3. ❌ 외부 포트 포워딩 (304 에러 발생)
해결 방안: Docker 설정 파일 수정 검토 중
현재 이슈
HTML 인터페이스: 파일 업로드 기능 미작동
설정 문제 vs 기능 지원 여부 확인 필요
비교 분석
Llama3.2-vision:11b vs Gemma2:2b
이미지 처리 능력 비교 검증
설명 중에 틀리거나 이상한 부분 지적 부탁 드립니다.
00:00 설명
00:42 설치
00
02:45 Ollama 외부 포트 열기
03:07 Ollama 외부 주소 전송
03:18 n8n 시작