34. Training a Softmax Classifier
2023. 9. 12. 14:47ㆍGoogle ML Bootcamp/2. Improving Deep Neural Networks
why softmax?
- In hard max : 가장 큰 값을 가지는 것을 1, 나머지는 0으로 치환
- In softmax : 확률을 모두 나타내므로 soft방식
If class=2, sigmoid = softmax(증명은 생략.)
- softmax는 sigmoid에 대해 일반화를 한 것(n개의 class가 있다고 가정)
loss를 줄이기 위해서는 y hat을 증가시켜야하는 것을 확인할 수 있다.
loss를 구하는 방법을 알았으니 이제 forward_propagation, backward_propagation을 올바르게 구축만 한다면 모델을 학습시킬 수 있다.
'Google ML Bootcamp > 2. Improving Deep Neural Networks' 카테고리의 다른 글
36. Tensorflow (0) | 2023.09.12 |
---|---|
35. Deep Learning Frameworks (0) | 2023.09.12 |
33. Softmax Regression (0) | 2023.09.12 |
32. Batch Norm at Test time (0) | 2023.09.12 |
31. Why does Batch Norm Work? (0) | 2023.09.12 |