weka使用教程3--对分类结果进行分析

weka使用教程3--对分类结果进行分析_第1张图片

1 Summary

Correctly Classified Instances :正确分类的实例
Incorrectly Classified Instances :错误分类的实例
Kappa statistic:就是假设有两个相互独立的人分别将N个物品分成C个相互独立的类别,如果双方结果完全一致则K值为1,反之K值为0;
Mean absolute error :就是把N次实验的绝对误差求和,然后除以实际值与均值之差的求和. 此值越小实验越准确.
Root mean squared error:即均方根误差,是用来衡量样本的离散程度的.也就是将N次实验中的实验值与平均值之差求和,除以实验次数,再把商开根号.
Relative absolute error  :就是把N次实验的绝对误差求和,然后除以实际值与均值之差的求和. 此值越小实验越准确.
Root relative squared error :上面的做完再开根号...
Total Number of Instances :样本总数

2 Detailed Accuracy By Class

TP Rate :True Positive,被判定为正样本,事实上也是证样本。

FP Rate :False Positive,被判定为正样本,但事实上是负样本。

Precision  :即在检索后返回的结果中,真正正确的个数占整个结果的比例。precesion = TP/(TP+FP) 。

Recall   :即在检索结果中真正正确的个数 占整个数据集(检索到的和未检索到的)中真正正确个数的比例。recall = TP/(TP+FN)即,检索结果中,你判断为正的样本也确实为正的,以及那些没在检索结果中被你判断为负但是事实上是正的(FN)。

F-Measure  :是Precision和Recall加权调和平均P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。

MCC  :   

ROC Area:  ROC曲线下方的面积(Area Under the ROC Curve, AUC)提供了评价模型平均性能的另一种方法。如果模型是完美的,那么它的AUC = 1,如果模型是个简单的随机猜测模型,那么它的AUC = 0.5,如果一个模型好于另一个,则它的曲线下方面积相对较大

PRC Area:

3 Confusion Matrix

第一行 :565个a正确分类 135个a错误分成了b

第二行:168个b错误分成了a 532个正确分类

你可能感兴趣的:(机器学习)