- Llama 4 출시는 3~4개월간 잠잠했던 Meta의 움직임을 알리는 신호탄🚀.
- 기술 블로그 게시물의 상세함에 놀랐지만, 재현 가능한 기술 보고서가 없는 점은 아쉬움 😞.
- Mixture of Experts(MoE)는 모델의 효율성과 품질 사이의 균형을 맞추는 기술⚖️.
- Llama 4의 100만 토큰당 10센트라는 가격은 RAG의 필요성을 줄여주지만, 18TB의 RAM 요구는 여전히 큰 장벽 🚧.
- 1000만 토큰 컨텍스트 길이는 인상적이지만, 비용과 메모리 문제로 인해 RAG를 완전히 대체하기는 어려움 😥.