2. Single Number Evaluation Metric

2023. 9. 14. 12:17Google ML Bootcamp/3. Structuring Machine Learning Projects

평가지표에 대해서 이야기를 해보자

 

Precision vs Recall

- 둘은 trade off 관계.

- Precision : 정의를 고양이라고 말한거 중에 얼마나 진짜 고양이 인지.( True Positive / (True Positive + False Positive) )

- Recall(= Sensitivity, hit rate 이라고도 불림) : 정답중에 얼마나 맞췄는지. (True Positive / (True Positive + False Negative))

Precision은 true 중에만 관심있고, Recall은 정답률에 관심있다.

F1 socre(조화평균) : Precision과 Recall의 평균.

- 이걸 평가지표로 사용하는 것이 좋다. 

- Precision, Recall은 trade off 관계이므로 이 중에 하나를 평가지표로 사용하는 것은 어려울 수 있음.