编程语言
首页 > 编程语言> > 风控(一):ROC曲线和K-S曲线比较及python实现

风控(一):ROC曲线和K-S曲线比较及python实现

作者:互联网

1.混淆矩阵(一级指标)

以分类模型中最简单的二分类为例,对于这种问题,我们的模型最终需要判断样本的结果是0还是1,或者说是positive还是negative。我们通过样本的采集,能够直接知道真实情况下,哪些数据结果是positive,哪些结果是negative。同时,我们通过用样本数据跑出分类型模型的结果,也可以知道模型认为这些数据哪些是positive,哪些是negative。因此,我们就能得到这样四个基础指标,我称他们是一级指标(最底层的):

 

 注:T肯定是对的,F是错的。

 预测性分类模型,肯定是希望越准越好。那么,对应到混淆矩阵中,那肯定是希望TP与TN的数量大,而FP与FN的数量小。所以当我们得到了模型的混淆矩阵后,就需要去看有多少观测值在第二、四象限对应的位置,这里的数值越多越好;反之,在第一、三象限对应位置出现的观测值肯定是越少越好。

2.二级指标

但是,混淆矩阵里面统计的是个数,有时候面对大量的数据,光凭算个数,很难衡量模型的优劣。因此混淆矩阵在基本的统计结果上又延伸了如下4个指标,我称他们是二级指标(通过最底层指标加减乘除得到的):

可以将混淆矩阵中数量的结果转化为0-1之间的比率。便于进行标准化的衡量。

3.三级指标

在这四个指标的基础上在进行拓展,会产令另外一个三级指标这个指标叫做F1 Score。他的计算公式是:

其中,P代表Precision,R代表Recall。

F1-Score指标综合了Precision与Recall的产出的结果。F1-Score的取值范围从0到1的,1代表模型的输出最好,0代表模型的输出结果最差。

4.ROC曲线

ROC曲线:Receiver Operating Characteristic曲线,横轴是FPR(False Positive Rate),纵轴是TPR(True Positive Rate)。

AUC(Area Under ROC Curve):ROC曲线下的面积。

5.K-S曲线

洛伦兹曲线(Kolmogorov-Smirnov curve)值越大,表示模型能够将正、负客户区分开的程度越大。KS值的取值范围是[0,1] 。

KS曲线是两条线,其横轴是阈值,纵轴是TPR(上面那条)与FPR(下面那条)的值,值范围[0,1] 。两条曲线之间之间相距最远(差)的地方对应的阈值,就是最能划分模型的阈值。绘制过程如下:

 可以看出,在阈值等于0.4的地方,TPR和FPR差最大,说明该处阈值可作为最佳区分点。

6.相关代码

6.1 混淆矩阵pyspark

 1 '''
 2 TP(True Positive):真实为1,预测为1 
 3 FN(False Negative):真实为1,预测为0 
 4 FP(False Positive):真实为0,预测为1 
 5 TN(True Negative):真实为0,预测为0 
 6 '''
 7 #训练集
 8 a=0.1
 9 result_train_tmp=result_train.withColumn("tp",F.expr("""case when label=1 and round(prediction+{a},0)=1 then 1 else 0 end""".format(a=a))).\
10                               withColumn("fn",F.expr("""case when label=1 and round(prediction+{a},0)=0 then 1 else 0 end""".format(a=a))).\
11                               withColumn("fp",F.expr("""case when label=0 and round(prediction+{a},0)=1 then 1 else 0 end""".format(a=a))).\
12                               withColumn("tn",F.expr("""case when label=0 and round(prediction+{a},0)=0 then 1 else 0 end""".format(a=a)))
View Code

6.2 ROC曲线python

import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
plt.rcParams.update({'font.size': 10})
plt.rcParams['savefig.dpi'] = 300 #图片像素
plt.rcParams['figure.dpi'] = 300 #分辨率

# 预测
y_pred_lr=lr.predict_proba(x_test)
# 计算AUC
fpr_lr,tpr_lr,thresholds = roc_curve(y_test,y_pred_lr[:,1],pos_label=1)
roc_auc_lr = auc(fpr_lr, tpr_lr)

# 绘制roc
plt.rcParams['figure.figsize']=(8,5)
plt.figure()
plt.plot(fpr_lr, tpr_lr, color='darkorange', label='ROC curve (area = %0.2f)' % roc_auc_lr)
plt.plot([0, 1], [0, 1], color='navy', linestyle='--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('ROC曲线-LR')
plt.legend(loc="lower right")


#-------------------------------------------------

#交叉验证画roc
from sklearn.model_selection  import KFold

kf=KFold(n_splits=5)
fig=plt.figure(figsize=(7,5))
mean_tpr=0.0
mean_fpr=np.linspace(0,1,100)
all_tpr=[]
x_train=np.array(x_train)
y_train=np.array(y_train)
i=0
for train_index,test_index in kf.split(x_train):
    model=gbdt.fit(x_train[train_index],y_train[train_index])
    probas=model.predict_proba(x_train[test_index])
    fpr,tpr,thresholds = roc_curve(y_train[test_index],probas[:,1],pos_label=1)
    mean_tpr+=np.interp(mean_fpr,fpr,tpr)
    mean_tpr[0]=0.0
    roc_auc = auc(fpr,tpr)
    plt.plot(fpr,tpr,lw=1,label='ROC fold %d (area = %0.2f)'%(i+1,roc_auc))
    i+=1
    
plt.plot([0,1],[0,1],linestyle='--',color=(0.6,0.6,0.6),label='random guessing')
mean_tpr/=5
mean_tpr[-1]=1.0
mean_auc=auc(mean_fpr,mean_tpr)
plt.plot(mean_fpr,mean_tpr,'k--',label='mean ROC (area=%0.2f)'%mean_auc,lw=2)
plt.plot([0,0,1],[0,1,1],lw=2,linestyle=':',color='black',label='perfect performance')
plt.xlim([-0.05,1.05])
plt.ylim([-0.05,1.05])
plt.xlabel('false positive rate')
plt.ylabel('true positive rate')
plt.title('Receiver Operator Characteristic')
plt.legend(loc='lower right')
plt.show()
View Code

6.3 K-S曲线python

 1 # 绘制K-S曲线
 2 import numpy as np
 3 import pandas as pd
 4 def PlotKS(preds, labels, n, asc):
 5     
 6     # preds is score: asc=1
 7     # preds is prob: asc=0
 8     # n为划分阈值的个数,10为0-1
 9     
10     pred = preds  # 预测值
11     bad = labels  # 取1为bad, 0为good
12     ksds = pd.DataFrame({'bad': bad, 'pred': pred})
13     ksds['good'] = 1 - ksds.bad
14     
15     if asc == 1:
16         ksds1 = ksds.sort_values(by=['pred', 'bad'], ascending=[True, True])
17     elif asc == 0:
18         ksds1 = ksds.sort_values(by=['pred', 'bad'], ascending=[False, True])
19     ksds1.index = range(len(ksds1.pred))
20     ksds1['cumsum_good1'] = 1.0*ksds1.good.cumsum()/sum(ksds1.good)
21     ksds1['cumsum_bad1'] = 1.0*ksds1.bad.cumsum()/sum(ksds1.bad)
22     
23     if asc == 1:
24         ksds2 = ksds.sort_values(by=['pred', 'bad'], ascending=[True, False])
25     elif asc == 0:
26         ksds2 = ksds.sort_values(by=['pred', 'bad'], ascending=[False, False])
27     ksds2.index = range(len(ksds2.pred))
28     ksds2['cumsum_good2'] = 1.0*ksds2.good.cumsum()/sum(ksds2.good)
29     ksds2['cumsum_bad2'] = 1.0*ksds2.bad.cumsum()/sum(ksds2.bad)
30     
31     # ksds1 ksds2 -> average
32     ksds = ksds1[['cumsum_good1', 'cumsum_bad1']]
33     ksds['cumsum_good2'] = ksds2['cumsum_good2']
34     ksds['cumsum_bad2'] = ksds2['cumsum_bad2']
35     ksds['cumsum_good'] = (ksds['cumsum_good1'] + ksds['cumsum_good2'])/2
36     ksds['cumsum_bad'] = (ksds['cumsum_bad1'] + ksds['cumsum_bad2'])/2
37     
38     # ks
39     ksds['ks'] = ksds['cumsum_bad'] - ksds['cumsum_good']
40     ksds['tile0'] = range(1, len(ksds.ks) + 1)
41     ksds['tile'] = 1.0*ksds['tile0']/len(ksds['tile0'])
42     
43     qe = list(np.arange(0, 1, 1.0/n))
44     qe.append(1)
45     qe = qe[1:]
46     
47     ks_index = pd.Series(ksds.index)
48     ks_index = ks_index.quantile(q = qe)
49     ks_index = np.ceil(ks_index).astype(int)
50     ks_index = list(ks_index)
51     
52     ksds = ksds.loc[ks_index]
53     ksds = ksds[['tile', 'cumsum_good', 'cumsum_bad', 'ks']]
54     ksds0 = np.array([[0, 0, 0, 0]])
55     ksds = np.concatenate([ksds0, ksds], axis=0)
56     ksds = pd.DataFrame(ksds, columns=['tile', 'cumsum_good', 'cumsum_bad', 'ks'])
57     
58     ks_value = ksds.ks.max()
59     ks_pop = ksds.tile[ksds.ks.idxmax()]
60     print ('ks_value is ' + str(np.round(ks_value, 4)) + ' at pop = ' + str(np.round(ks_pop, 4)))
61     
62     # chart
63 
64     # chart
65     plt.plot(ksds.tile, ksds.cumsum_good, label='cum_good',
66                          color='blue', linestyle='-', linewidth=2)
67                          
68     plt.plot(ksds.tile, ksds.cumsum_bad, label='cum_bad',
69                         color='red', linestyle='-', linewidth=2)
70                         
71     plt.plot(ksds.tile, ksds.ks, label='ks',
72                    color='green', linestyle='-', linewidth=2)
73                        
74     plt.axvline(ks_pop, color='gray', linestyle='--')
75     plt.axhline(ks_value, color='green', linestyle='--')
76     plt.axhline(ksds.loc[ksds.ks.idxmax(), 'cumsum_good'], color='blue', linestyle='--')
77     plt.axhline(ksds.loc[ksds.ks.idxmax(),'cumsum_bad'], color='red', linestyle='--')
78     plt.title('KS=%s ' %np.round(ks_value, 4) +  
79                 'at Pop=%s' %np.round(ks_pop, 4), fontsize=15)
80     
81 
82     return ksds
View Code

6.4 其他指标计算python

1 from sklearn.metrics import precision_score, recall_score, f1_score,accuracy_score
2 
3 acc=accuracy_score(y_test, y_pred_lr_new)
4 p = precision_score(y_test, y_pred_lr_new, average='binary')
5 r = recall_score(y_test, y_pred_lr_new, average='binary')
6 f1score = f1_score(y_test, y_pred_lr_new, average='binary')
7 print(acc,p,r,f1score)
View Code

 

相关链接:

混淆矩阵:https://blog.csdn.net/Orange_Spotty_Cat/article/details/80520839

ROC曲线绘制:https://blog.csdn.net/cymy001/article/details/79613787

标签:ksds,ROC,index,python,曲线,ks,bad,plt,cumsum
来源: https://www.cnblogs.com/siriJR/p/12093513.html