33. Softmax Regression
2023. 9. 12. 14:36ㆍGoogle ML Bootcamp/2. Improving Deep Neural Networks
Softmax : multi class Regression
Sigmoid : binary class Regression
L layer : Softmax Activation function.
- t = e**(Z[l])
- g(x) = e**(Zi[l]) / sum(Zi[l](i)) 과 같이 softmax 함수의 수식일뿐. (i는 unit번호)
- a는 각 class에 속할 확률이니, 모든 class에 대해 합을 구하면 1이 나와야한다.
multi class에 대해 분류기를 나타낸 것이다. 각 경계선이 모두 선형임을 확인할 수 있는데, 이와 같이 multi class에 대해 분류를 수행할 수 있음을 나타내는 것을 확인할 수 있다.
'Google ML Bootcamp > 2. Improving Deep Neural Networks' 카테고리의 다른 글
35. Deep Learning Frameworks (0) | 2023.09.12 |
---|---|
34. Training a Softmax Classifier (0) | 2023.09.12 |
32. Batch Norm at Test time (0) | 2023.09.12 |
31. Why does Batch Norm Work? (0) | 2023.09.12 |
30. Fitting Batch Norm into a Neural Network (0) | 2023.09.12 |