CLIP 2. Lablup 신정규 대표의 "Scale Entanglement"
- 랩럽은 "연구실 업그레이드"를 목표로 설립되었으며, Backend.AI 솔루션을 통해 대규모 AI 개발 및 서비스 플랫폼을 제공합니다. 🚀
- 2018년 초 모델과 2021년 말 모델 크기는 약 2만 배 차이가 나며, Transformer 아키텍처 기반 모델의 급격한 성장을 보여줍니다. 🤯
- 2017년 Google Neural Machine Translation 모델은 AI가 기존 기술을 크게 향상시킬 수 있음을 입증한 중요한 사례입니다. 🏆
- 2019년부터 모델 크기가 급격히 커지면서 언어 모델의 "언어 효과"에 대한 논의가 시작되었고, 이는 AI의 추론 능력에 대한 질문으로 이어졌습니다. 🤔
- ChatGPT가 수학 문제를 "추정"하는 방식은 기존 컴퓨터와 다른 방식으로 논리 구조를 자체적으로 생성하여 연산한다는 점을 시사합니다. 🧮
- 2019년에는 뇌의 구조와 다른 방식으로 지능을 구현하는 방법에 대한 논의가 있었으며, 이는 진화 과정에서 만들어진 뇌의 한계를 극복할 수 있다는 아이디어로 이어졌습니다. 🧠
- 2020년 이후 모델 크기 경쟁이 심화되면서 OpenAI는 GPT-3를 통해 1000억 개 이상의 파라미터 모델의 가능성을 보여주었습니다. 📈
- ChatGPT는 1억 명 이상의 활성 사용자를 처리하기 위해 모델 크기를 줄였을 가능성이 있으며, 8비트 양자화 또는 더 작은 모델을 사용할 수 있다는 추측이 있습니다. 📉
- PaLM 2는 원래 540B에서 340B로 모델 크기를 줄였으며, Transformer 모델의 양자화는 오류 누적 위험이 있어 신중하게 수행됩니다. ✂️