11. Weight Initialization for Deep Networks

2023. 9. 10. 18:06Google ML Bootcamp/2. Improving Deep Neural Networks

Vanishing or Exploding 문제를 해결할 수 있는 방법(완벽히 해결하는 것은 아니지만 굉장한 효과가 있음)

- Weight Initialization randomly * np.sqrt(1/n[l-1])

- activation function이 relu인 경우 np.sqrt(2/n[l-1]) 이 더 잘 작동함.

 

가중치 초기 설정에 분산을 설정하는 방법인데 이가 hyperparameter 순위에 있어서 아래쪽에 속하지만 Vanishing , Exploding 문제를 해결함에 있어서는 좋은 방법이 되었다.