24. Learning Rate Decay

2023. 9. 11. 14:48Google ML Bootcamp/2. Improving Deep Neural Networks

Learning rate 감소가 필요한 이유

epoch이 진행될수록 optimal point에 근접하게 되는데, learning rate를 낮추어 천천히 진행할수록 optimal point를 지나쳐 더 멀이지는걸 방지할 수 있다.

 

learing rate = (1 / (1+decay rate * epoch_num)) * learning rate

- epoch이 진행됨에 따라 learning rate의 계수는 1보다 점점 작아지게 되고 따라서 learnin rate 또한 점점 작아지게 된다.

 

정리 : Learning rate reducing이 필요한 이유 + 어떻게 하는지

'Google ML Bootcamp > 2. Improving Deep Neural Networks' 카테고리의 다른 글

26. Tuning Process  (0) 2023.09.12
25. The Problem of Local Optima  (0) 2023.09.11
23. Adam Optimization Algorithm  (0) 2023.09.11
22. RMSprop  (0) 2023.09.11
21. Gradient Descent with Momentum  (0) 2023.09.11