유튜브블로그Top 10
내 프로필

데브허브 안내
소개업데이트 소식

데브허브 커뮤니티

How to Run Local LLM Models with Ollama

Better Stack

2025. 8. 17.

0

#ai
  • Ollama 웹사이트에서 운영체제에 맞는 버전을 다운로드하여 로컬 LLM 모델을 실행할 수 있습니다. 💻
  • 모델 선택기에서 원하는 모델을 선택하여 다운로드합니다 (예: GPT OSS 20B는 약 12GB). 💾
  • 다운로드 완료 후 로컬 모델과 채팅할 수 있습니다. 💬
  • Ollama는 CLI를 제공하여 터미널에서 모델을 실행하고 다른 API와 연결할 수 있습니다. ⚙️
  • CLI를 통해 토큰/초와 같은 추가 정보를 얻을 수 있습니다. ⚡

Recommanded Videos