The Easiest Ways to Run LLMs Locally - Docker Model Runner Tutorial
- Docker Model Runner는 로컬에서 AI 모델을 더 쉽게 실행할 수 있게 해주는 도구이며, Docker Desktop에 통합되어 CUDA나 드라이버 설치 없이 사용 가능합니다. 🐳
- Mac(M1, M2, M3 칩) 및 Nvidia GPU가 있는 Windows에서 GPU를 활용할 수 있으며, Linux에서도 CPU 및 Nvidia GPU를 지원합니다. 💻
- Docker Desktop 설정에서 베타 기능으로 Docker Model Runner를 활성화하고, 필요한 모델을 Docker Hub 또는 Hugging Face에서 다운로드할 수 있습니다. ⚙️
docker model
명령어를 통해 CLI에서 모델을 관리하고 실행할 수 있으며, OpenAI 호환 API를 제공하여 기존 Python 라이브러리와 쉽게 통합됩니다. ⌨️
- Docker 컨테이너에서 Model Runner에 접근하려면 기본 URL을
host.docker.internal
로 변경해야 합니다. 🐳➡️💻