2. Single Number Evaluation Metric
2023. 9. 14. 12:17ㆍGoogle ML Bootcamp/3. Structuring Machine Learning Projects
평가지표에 대해서 이야기를 해보자
Precision vs Recall
- 둘은 trade off 관계.
- Precision : 정의를 고양이라고 말한거 중에 얼마나 진짜 고양이 인지.( True Positive / (True Positive + False Positive) )
- Recall(= Sensitivity, hit rate 이라고도 불림) : 정답중에 얼마나 맞췄는지. (True Positive / (True Positive + False Negative))
F1 socre(조화평균) : Precision과 Recall의 평균.
- 이걸 평가지표로 사용하는 것이 좋다.
- Precision, Recall은 trade off 관계이므로 이 중에 하나를 평가지표로 사용하는 것은 어려울 수 있음.
'Google ML Bootcamp > 3. Structuring Machine Learning Projects' 카테고리의 다른 글
6. When to Change Dev/Test sets and Metrics? (0) | 2023.09.14 |
---|---|
5. Size of the Dev and Test sets (0) | 2023.09.14 |
4. Train/Dev/Test Distributions (0) | 2023.09.14 |
3. Satisficing and Optimizing Metric (0) | 2023.09.14 |
1. Orthogonalization (0) | 2023.09.14 |