- Ollama를 사용하여 로컬에서 LLM 실행 가능 ✨
- 다양한 LLM 모델 (DeepSeek, Llama 등) 지원 🤖
- Mac, Windows, Linux 모두 지원 💻
- CLI 도구 및 Docker 이미지 제공 🐳
- 간편한 명령어로 모델 실행 및 관리 ⌨️
- API 엔드포인트를 통한 접근 가능 🌐
- 모델 크기에 따라 성능 차이 발생 (작은 모델 권장) ⚠️
잠시만 기다려 주세요.
Recommanded Videos

2025. 3. 20.

2024. 8. 29.

2025. 2. 27.

2025. 3. 18.

2025. 11. 4.

2024. 9. 20.