- Ollama과 HuggingFace가 45,000개가 넘는 GGUF 모델에 접근할 수 있도록 했습니다. 💡
- Ollama run 명령어를 사용하여 hf.co/{모델 이름} 형식으로 GGUF 모델을 실행할 수 있습니다. 🔌
- 2비트, 4비트, 8비트 등 다양한 양자화 버전 중 선택할 수 있습니다. 🎚️
- Q4K 모델들은 일반적으로 성능과 속도의 균형을 이루는 좋은 선택입니다. 🚀
- 모델의 정확도는 모델마다 다르기 때문에 실험해보는 것이 좋습니다. 🔬
- GGUF 버전이 있으면, Ollama으로 이용하여 다양한 모델을 활용할 수 있습니다. ✨