- Meta가 GPT-4 수준의 L&M 모델인 Rama 3.1의 가중치와 학습 코드를 완전히 오픈소스로 공개했다. 🤯
- 8b, 70b, 405b 세 가지 파라미터 모델이 제공되며, 특히 405b 모델은 멀티 GPU 환경에서 실행해야 한다. 🧮
- Rama 3.1은 128k 토큰 컨텍스트 길이를 사용하며, GPT-4와 Claude 3.5를 능가하는 성능을 보여준다. 🏆
- Rama 3.1은 단순한 Decoder-Only Transformer 구조를 사용하며, Multi-Phase 학습을 통해 안정성을 향상시켰다. 🧠
- 16,000 GPU 시간이 필요한 학습 비용 2억7천만원은 흥미로운 점이지만, 오픈소스를 통해 누구나 활용 가능하다. 🚀
- Rama 3.1을 통해 합성 데이터 생성이 가능하여 다양한 목적으로 활용할 수 있다. 💡
- AI 모델의 폭발적인 출시 속도 속에서 중요한 것은 인공지능의 규제와 윤리적인 고려가 되어야 한다. ⚖️