[머신러닝+딥러닝 기초 강의] 9강. 로지스틱 회귀
- 로지스틱 회귀는 머신러닝/딥러닝의 핵심 기본 알고리즘이며, 확률 예측에 사용됩니다. 🔑
- K-최근접 이웃 알고리즘은 이웃 샘플 비율로 확률을 계산하며, 확률 결과가 어색할 수 있습니다. 🤨
- 로지스틱 회귀는 선형 회귀와 유사하지만, 시그모이드 함수를 통해 0과 1 사이의 확률 값을 출력하는 분류 알고리즘입니다. ➗
- 시그모이드 함수 값 0.5 기준으로 양성/음성 클래스를 분류하며, Z값이 0보다 크면 양성, 작으면 음성입니다. 👍
- 사이킷런은 문자열 타겟 데이터를 알파벳 순서로 정렬하여 클래스 레이블을 지정합니다. 🔤
- decision_function 함수는 선형 방정식 결과(Z값)를 반환하며, predict_proba는 시그모이드 함수를 사용하여 확률을 반환합니다. 💯
- 다중 분류에서 로지스틱 회귀는 클래스마다 선형 방정식을 훈련하여 이진 분류를 여러 번 수행하는 방식과 유사합니다. 👯
- 소프트맥스 함수는 다중 분류에서 확률을 만드는 데 사용되며, 딥러닝에서도 활용됩니다. 💡