데브허브 | DEVHUB | AI 엔지니어링 - 3. LLM의 수학적 기초AI 엔지니어링 - 3. LLM의 수학적 기초
- LLM의 수학적 기초는 해가 확정된 '정해'와 데이터 분포에 근사한 '통계학적 해'로 나뉘며, 현실 세계의 복잡한 데이터는 주로 통계학적 해법을 사용한다. 🎯
- 로지스틱스 회귀, 선형 회귀, 의사 결정 트리, 군집화 등 통계적 해법들은 여전히 유용하며, 간단한 분류나 예측에 효과적으로 활용될 수 있다. 📊
- 특히 군집화는 라벨 없는 데이터를 그룹화하는 기술로, 차원이 높아질수록 복잡해지므로 차원 축소 및 변환 기술이 필수적이다. 🧩
- 신경망은 수많은 인자(변수)로 구성된 '모델'을 만들고, 데이터를 통해 이 변수들을 점진적으로 조정하는 '학습' 과정을 거쳐 최적화된다. 🧠
- AI 발전의 핵심은 편미분과 경사 하강법(그라데이션)의 발견으로, 이를 통해 신경망의 변수들을 효율적으로 조정할 수 있게 되어 급격한 발전을 이루었다. 🚀
- 퍼셉트론은 입력값을 기준으로 분류하는 불연속적인 함수(예: 시그모이드, ReLU)를 사용하여 기존의 연속적인 수학 함수와 달리 비선형 문제를 처리할 수 있게 한다. ⚡
- 단일 퍼셉트론의 한계를 넘어 다층 퍼셉트론을 결합하면 훨씬 더 복잡한 비선형 및 불연속적인 패턴을 학습하고 처리할 수 있는 능력을 갖게 된다. 🏗️
- CNN, RNN, LSTM, 트랜스포머 등 다양한 신경망 모델들이 존재하며, 각각 특정 데이터 유형(예: 시계열 데이터)이나 문제 해결에 특화되어 개발되었다. 🌐
- 과거의 많은 신경망 모델들이 있었지만, 현재 AI 분야에서는 트랜스포머 모델이 가장 중요하고 핵심적인 기술로 부상하여 광범위하게 활용되고 있다. 👑