- Ollama를 사용하여 로컬 LLM 모델을 쉽게 실행할 수 있습니다. 🚀
- Ollama 웹사이트에서 운영체제에 맞는 버전을 다운로드하여 설치하세요. 💻
- 모델 선택기에서 원하는 LLM 모델을 다운로드합니다. ⬇️
- CLI를 통해 모델을 실행하고 다른 API와 연결할 수 있습니다. 🔗
- 터미널에서 토큰/초와 같은 추가 정보를 얻을 수 있습니다. ⚡
Recommanded Videos
2025. 5. 20.
2024. 12. 16.
2025. 7. 20.
2024. 7. 9.
2025. 9. 1.
2024. 5. 17.