- Ollama를 사용하여 로컬에서 LLM 실행 가능 ✨
- 다양한 LLM 모델 (DeepSeek, Llama 등) 지원 🤖
- Mac, Windows, Linux 모두 지원 💻
- CLI 도구 및 Docker 이미지 제공 🐳
- 간편한 명령어로 모델 실행 및 관리 ⌨️
- API 엔드포인트를 통한 접근 가능 🌐
- 모델 크기에 따라 성능 차이 발생 (작은 모델 권장) ⚠️
잠시만 기다려 주세요.
Recommanded Videos
2025. 7. 28.
2024. 9. 26.
2025. 3. 30.
2024. 8. 7.
2024. 10. 28.
2025. 4. 21.