7. Understanding Dropout

2023. 9. 10. 16:59Google ML Bootcamp/2. Improving Deep Neural Networks

 keep_prob에 대한 이해

- [0,1]

- 즉 해당 layer에서 unit을 유지할 비율을 의미

- 1이면 dropout이 없다는 의미

 

**중요 : Dropout은 정규화 기법. 정규화 기법은 과적합 방지**

- 즉 과적합이 일어나지 않는다면 굳이 할 필요가 없는 기법이기도 하다.

- dropout은 랜덤으로 발생하기 때문에 cost function이 잘 정의되지 않는다. 매 순간 달라지기 때문

- 따라서 loss 수렴을 확인하기 위해서는 keep_prob=1로 설정하고 수행할 것.

'Google ML Bootcamp > 2. Improving Deep Neural Networks' 카테고리의 다른 글

9. Normalizaing Inputs  (0) 2023.09.10
8. Other Regularization Methods  (0) 2023.09.10
6. Dropout Regularization  (0) 2023.09.10
5. Why Regularization Reduces Overfitting  (0) 2023.09.10
4. Regularization  (0) 2023.09.10