Precision(정확도)와 Recall(재현율), Accuracy, and etc. 는 알고리즘 및 Machine Learning 모델의 성능을 평가하는 지표로 많이 사용되고,

Confusion Matrix는 Training 을 통한 Prediction 성능을 측정하기 위해 예측 value와 실제 value를 비교하기 위한 표를 일컫는다.


■ 성능지표 및 용어 설명


용어

산출식

설명

 예

Accuracy (TP+TN)/(TP+TN+FP+FN) 탐지율 : 맞게 검출한 비율

실제 악성/정상인지 맞게 예측한 비율

Precision TP/(TP+FP)

정확도 : P로 검출한 것중 실제P의 비율

악성으로 예측한것 중 실제 악성인 샘플의 비율

Recall TP/(TP+FN)

재현율 : 실제 P를 P로 예측한 비율

실제 악성 샘플 중 악성으로 예측한 비율

False Alarm (Fall-out) FP/(FP+TN) 오검출율 : 실제 N을 P로 예측한 비율

실제 정상 샘플을 악성으로 예측한 비율

TPR (True Positive Rate) = Recall TP/(TP+FN)

예측과 실제 모두 P 

실제 악성 샘플을 악성으로 예측한 비율

TNR (True Negative Rate)

TN/(TN+FP)

예측과 실제 모두 N

실제 정상 샘플을 정상으로 예측한 비율

FPR (False Positive Rate) = False Alarm FP/(FP+TN)

실제 N인데 P로 검출

실제 정상 샘플을 악성으로 예측한 비율

FNR (False Negative Rate) FN/(TP+FN)

실제 P인데 N으로 검출

실제 악성 샘플을 정상으로 예측한 비율



■ Confusion Matrix




■ Precision, Recall, and the F measure 관련 참고 영상 (Stanford NLP, Prof. Dan Jurafsky & Chris Manning)




■ 주요 성능지표 산출식




* ref source : https://en.wikipedia.org/wiki/Confusion_matrix




+ Recent posts