12. Numerical Approximation of Gradients
2023. 9. 10. 18:37ㆍGoogle ML Bootcamp/2. Improving Deep Neural Networks
기울기 계산에 있어서 two-sided difference 또한 세타에서 미분값과 근사함을 확인할 수 있었는데
미분학적 기울기의 정의로 보았을 때 대략적인 오차를 구할 수 있었다.
하지만 이걸 어디에 왜 쓴다는건지는 다음 비디오에 알 수 있다고 한다.
'Google ML Bootcamp > 2. Improving Deep Neural Networks' 카테고리의 다른 글
15. Gradient Checking Implementation Notes (0) | 2023.09.10 |
---|---|
13. Gradient Checking (0) | 2023.09.10 |
11. Weight Initialization for Deep Networks (0) | 2023.09.10 |
10. Vanishing / Exploding Gradients (0) | 2023.09.10 |
9. Normalizaing Inputs (0) | 2023.09.10 |