- Meta가 Llama 3.2를 출시하여 두 가지 새로운 Multimodal 모델(Visio LLMs)과 두 가지 작은, 기기용 모델을 제공했습니다. 🦙
- 신규 모델은 모두 Instruction-tuning을 통해 더욱 사용자 친화적인 방식으로 설계되었습니다. 🤖
- 110억 및 900억 파라미터를 가진 새로운 Vision LLMs는 이미지 이해와 처리 능력을 향상시켰습니다. 👁️💬
- 10억 및 30억 파라미터를 가진 작은 모델은 모바일 기기, Raspberry Pi 등에서 실행 가능하도록 최적화되었습니다. 📱✨