면접 단골 문제: 배치놈 한번 설명해 보세요? | 딥러닝 강의 - Batch Normalization
- 배치 정규화(Batch Normalization)는 딥러닝 모델 학습 시 각 레이어의 입력 분포를 정규화하여 학습을 안정화하고 성능을 향상시키는 기법입니다. 📊
- 배치 정규화는 미니 배치 단위로 평균과 분산을 계산하여 입력을 정규화한 후, 스케일(γ)과 이동(β) 파라미터를 통해 조정합니다. ⚙️
- 정규화 단계는 입력 데이터의 평균을 0, 분산을 1로 만들어 데이터 분포를 일정하게 유지합니다. 📉
- 스케일 및 이동 단계는 정규화된 데이터를 모델이 학습하기에 적합한 형태로 변환하며, γ와 β는 학습 가능한 파라미터입니다. ➡️
- 배치 정규화는 내부 공변량 변화(Internal Covariate Shift) 문제를 완화하여 학습 속도를 높이고, 더 높은 학습률을 사용할 수 있게 합니다. 🚀
- 활성화 함수(Activation Function)와의 연관성을 고려해야 하며, 배치 정규화는 활성화 함수의 입력 분포를 최적화하여 성능을 향상시킵니다. 💡
- 학습 시에는 미니 배치의 통계량을 사용하고, 테스트 시에는 전체 데이터셋의 통계량 추정치를 사용합니다. 🧪
- 테스트 시에는 이동 평균(Moving Average) 방식을 사용하여 학습 과정에서 얻은 평균과 분산의 추정치를 활용합니다. 📈
- 배치 정규화는 베니싱 그래디언트(Vanishing Gradient) 문제를 완화하고, 모델의 일반화 성능을 향상시키는 데 기여합니다. 🎯
- 배치 정규화의 핵심은 입력 분포를 정규화하여 학습을 안정화하고, 모델이 최적의 표현력을 갖도록 돕는 데 있습니다. 🌟