🔥 Bolt.new를 사용하여 Ollama를 로컬에서 설정하는 방법 - 전체 튜토리얼
이 포괄적인 튜토리얼에서는 Ollama를 Bolt.new와 통합하고 컴퓨터에서 로컬로 실행하는 방법을 알아봅니다. 오프라인에서 AI 모델을 작업하려는 개발자에게 적합합니다!
🔧 전체 설정 가이드:
저장소 복제
Ollama 설정
모델 구성
Docker로 애플리케이션 실행
📦 필요한 다운로드:
Ollama: https://ollama.com
Docker: https://www.docker.com/products/docke...
💡 모델 구성:
모델: Qwen 2.5 Coder(70억 개의 매개변수)
컨텍스트 길이: 32,000개 토큰
로컬 설정: 오프라인 기능 완벽 지원
⚠️ 중요 참고 사항:
기본 컨텍스트 길이가 32,000개 토큰으로 증가
모델 비교: 로컬(32K) vs ChatGPT(128K) vs Claude(200K)
더 큰 매개변수 모델 사용 가능(32B, 72B)
🔍 주요 기능:
로컬 AI 모델 통합
Docker 컨테이너화
사용자 정의 모델 구성
실시간 코드 생성
미리보기 창 기능
💻 시스템 요구 사항:
모든 주요 운영 체제와 호환
Docker 설치 필요
모델 파일을 위한 충분한 저장 공간
모델 작업에 적합한 RAM
🔗 링크:
Patreon: / mervinpraison
Ko-fi: https://ko-fi.com/mervinpraison
Discord: / discord
Twitter / X: / mervinpraison
GPU 비용의 50% 할인: https://bit.ly/mervin-praison 쿠폰: MervinPraison (A6000, A5000)
명령어 및 코드: https://mer.vin/2024/11/bolt-new-ollama/
타임라인
0:00 - 소개
1:15 - 1단계: Git 복제 저장소
1:28 - 2단계: Ollama 설정
2:39 - 3단계: Docker 설정
2:59 - 로컬에서 Bolt.new 실행
3:26 - React 앱 생성 테스트
4:09 - 모델 제한 사항 논의
5:16 - 마무리