24. Learning Rate Decay
2023. 9. 11. 14:48ㆍGoogle ML Bootcamp/2. Improving Deep Neural Networks
epoch이 진행될수록 optimal point에 근접하게 되는데, learning rate를 낮추어 천천히 진행할수록 optimal point를 지나쳐 더 멀이지는걸 방지할 수 있다.
learing rate = (1 / (1+decay rate * epoch_num)) * learning rate
- epoch이 진행됨에 따라 learning rate의 계수는 1보다 점점 작아지게 되고 따라서 learnin rate 또한 점점 작아지게 된다.
정리 : Learning rate reducing이 필요한 이유 + 어떻게 하는지
'Google ML Bootcamp > 2. Improving Deep Neural Networks' 카테고리의 다른 글
26. Tuning Process (0) | 2023.09.12 |
---|---|
25. The Problem of Local Optima (0) | 2023.09.11 |
23. Adam Optimization Algorithm (0) | 2023.09.11 |
22. RMSprop (0) | 2023.09.11 |
21. Gradient Descent with Momentum (0) | 2023.09.11 |