- 오픈소스 LLM을 사용하면 API 비용 발생 없이 저렴하게 모델을 실행할 수 있습니다.🤖
- 오픈소스 LLM은 API 의존성이 덜하기 때문에 서비스 안정성을 높일 수 있습니다.💪
- 코리아 Open Source LLM leaderboard를 통해 한국어 성능이 우수한 모델을 쉽게 찾을 수 있습니다.🇰🇷
- 곱이 큰 LLM은 일반 GPU에서 실행하기 어려울 수 있으므로 Quantization으로 가볍게 만들 수 있습니다.💡
- Quantization은 LLM의 숫자의 몇 자리 이하를 줄여서 실행 속도를 높이고 컴퓨팅 부담을 줄입니다.⚡️