Logistic Regression - Complete Guide
- 로지스틱 회귀는 시그모이드 함수(1 / (1 + e^-s)) 형태를 가지며, 이는 multi-layer perceptron의 sigmoid function과 동일하다. 🧠
- 통계학자들은 neural network를 logistic regression의 혼합 형태로 보았으며, 컴퓨터 공학에서는 이를 "neural network"라고 부른다. 🧑🏫
- Sigmoid 함수의 exponential (오일러 상수)은 가우시안 분포에서 유래되었으며, 마이너스 부호는 수식 전개 과정에서 자연스럽게 나타난다. ⚗️
- 학습된 로지스틱 회귀 파라미터는 feature가 한 단위 증가할 때 odds 비에 미치는 영향으로 해석할 수 있다. 📈
- 로지스틱 회귀의 weight는 Iterative Reweighted Least Squares (IRLS)라는 방법으로 추정할 수 있다. ⚙️
- Feature가 주어졌을 때 class일 확률은 class 기준으로 유도하면 분자, 분모가 특정 형태로 나타난다. ➗
- Feature가 n차원일 때도 공분산 행렬을 같다고 가정하면 weighted sum 형태로 간단하게 풀린다. 📐