- Gemini 2.5 Flash는 Claude 및 OpenAI와 비슷한 성능을 내면서도 사용 비용이 1/10 수준임 ⚡.
- Gemma 3의 양자화 인식 훈련은 모델을 로컬에서 실행하는 데 필요한 VRAM 양을 줄여줌 💾.
- 양자화는 대규모 언어 모델을 위한 압축 기술로 볼 수 있음 ⚙️.
- Gemma 3 270억 파라미터 모델은 양자화 없이 54GB VRAM이 필요하지만, 양자화를 통해 14GB로 줄어듦 📉.
- Google은 생성형 AI 분야에서 힘든 시작을 겪었지만, 다시 선두를 달리고 있는 것으로 보임 🚀.