- 은닉층은 입력층과 출력층 사이에 위치하며, 활성화 함수를 사용해 비선형성을 추가한다. 🎭
- 활성화 함수가 없다면 심층 신경망은 단일 층처럼 작동한다. 🧱
- 렐루 함수는 간단하지만 신경망에서 좋은 성능을 보인다. 💡
- 모델 요약은 층의 구조와 파라미터 수를 이해하는 데 도움이 된다. 📊
- 배치 크기는 모델 구조에 영향을 주지 않으며, 미니 배치 경사 하강법에 사용된다. 📦
- 옵티마이저는 모델 파라미터 업데이트 방법을 결정하며, 학습률 조정이 중요하다. ⚙️
- 적응적 학습률 옵티마이저는 학습 과정에서 학습률을 자동으로 조정한다. 🎯