34. Training a Softmax Classifier

2023. 9. 12. 14:47Google ML Bootcamp/2. Improving Deep Neural Networks

why softmax?

- In hard max : 가장 큰 값을 가지는 것을 1, 나머지는 0으로 치환

- In softmax : 확률을 모두 나타내므로 soft방식

 

If class=2, sigmoid = softmax(증명은 생략.)

- softmax는 sigmoid에 대해 일반화를 한 것(n개의 class가 있다고 가정)

 

softmax 함수에서의 loss function 확인.

loss를 줄이기 위해서는 y hat을 증가시켜야하는 것을 확인할 수 있다.

 

loss를 구하는 방법을 알았으니 이제 forward_propagation, backward_propagation을 올바르게 구축만 한다면 모델을 학습시킬 수 있다.

'Google ML Bootcamp > 2. Improving Deep Neural Networks' 카테고리의 다른 글

36. Tensorflow  (0) 2023.09.12
35. Deep Learning Frameworks  (0) 2023.09.12
33. Softmax Regression  (0) 2023.09.12
32. Batch Norm at Test time  (0) 2023.09.12
31. Why does Batch Norm Work?  (0) 2023.09.12