- Meta가 Llama 3.2를 출시하여 두 가지 새로운 Multimodal 모델(Visio LLMs)과 두 가지 작은, 기기용 모델을 제공했습니다. 🦙
- 신규 모델은 모두 Instruction-tuning을 통해 더욱 사용자 친화적인 방식으로 설계되었습니다. 🤖
- 110억 및 900억 파라미터를 가진 새로운 Vision LLMs는 이미지 이해와 처리 능력을 향상시켰습니다. 👁️💬
- 10억 및 30억 파라미터를 가진 작은 모델은 모바일 기기, Raspberry Pi 등에서 실행 가능하도록 최적화되었습니다. 📱✨



![[네트워크 기초 강의] 37강. HTTP의 발전: HTTP/0.9에서 HTTP/3.0까지](https://i3.ytimg.com/vi/NKX95tLE1UQ/hqdefault.jpg)

