- 미디어와 대중은 AI 발전이 둔화되고 있다고 지속적으로 주장해왔습니다. 📉
- OpenAI의 T5 논문은 한때 더 큰 모델 훈련의 무용론을 제시했었습니다. 📜
- 하지만 GPT-3는 '규모의 수익(return to scale)'이 여전히 유효함을 입증하며, 더 큰 모델의 가치를 보여주었습니다. 📈
- '스케일링 법칙(scaling laws)'은 계속해서 유효하며, 내부적으로 둔화 조짐은 보이지 않습니다. 🚀
- AI 발전 둔화 주장은 클릭과 관심을 유도하기 위한 미디어의 전형적인 행태로 보입니다. 📰
- 실제 AI 발전은 놀라운 수준이며, 부정적인 인식과 대조됩니다. ✨





