本学习笔记为阿里金融风控训练营的学习内容,学习链接为:AI训练营金融风控-阿里云天池
我的完整笔记为:AI训练营金融风控—01赛题理解_天池notebook-阿里云天池
该数据来自某信贷平台的贷款记录,总数据量超过120w,包含47列变量信息,其中15列为匿名变量。为了保证比赛的公平性,将会从中抽取80万条作为训练集,20万条作为测试集A,20万条作为测试集B,同时会对employmentTitle、purpose、postCode和title等信息进行脱敏。
train.csv
AUC(Area Under Curve)被定义为 ROC曲线 下与坐标轴围成的面积。
分类算法常见的评估指标如下:
1、混淆矩阵(Confuse Matrix)
2、准确率(Accuracy) 准确率是常用的一个评价指标,但是不适合样本不均衡的情况。
3、精确率(Precision) 又称查准率,正确预测为正样本(TP)占预测为正样本(TP+FP)的百分比。
4、召回率(Recall) 又称为查全率,正确预测为正样本(TP)占正样本(TP+FN)的百分比。
5、F1 Score 精确率和召回率是相互影响的,精确率升高则召回率下降,召回率升高则精确率下降,如果需要兼顾二者,就需要精确率、召回率的结合F1 Score。
6、P-R曲线(Precision-Recall Curve) P-R曲线是描述精确率和召回率变化的曲线
7、ROC(Receiver Operating Characteristic)
TPR:在所有实际为正例的样本中,被正确地判断为正例之比率。
FPR:在所有实际为负例的样本中,被错误地判断为正例之比率。
8、AUC(Area Under Curve) AUC(Area Under Curve)被定义为 ROC曲线 下与坐标轴围成的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围在0.5和1之间。AUC越接近1.0,检测方法真实性越高;等于0.5时,则真实性最低,无应用价值。
对于金融风控预测类常见的评估指标如下:
1、KS(Kolmogorov-Smirnov) KS统计量由两位苏联数学家A.N. Kolmogorov和N.V. Smirnov提出。在风控中,KS常用于评估模型区分度。区分度越大,说明模型的风险排序能力(ranking ability)越强。 K-S曲线与ROC曲线类似,不同在于
混淆矩阵:from sklearn.metrics import confusion_matrix
accuracy:from sklearn.metrics import accuracy_score
Precision:metrics.precision_score()
Recall:metrics.recall_score()
F1-score:metrics.f1_score()
P-R曲线:from sklearn.metrics import precision_recall_curve
ROC曲线:from sklearn.metrics import roc_curve
AUC:from sklearn.metrics import roc_auc_score
KS:FPR,TPR,thresholds=roc_curve(y_true, y_pred) ,KS=abs(FPR-TPR).max()
相比P-R曲线,ROC曲线特点是:当正负样本的分布发生变化时,ROC曲线的形状能够基本保持不变,而P-R曲线的形状一般会发生剧烈的变化。
风控模型—区分度评估指标(KS)深入理解应用
随着表现期的增加,ks下降了,为什么?
为什么模型评估不用iv,或者选取变量的时候不用ks去选?