随机森林:提供银行精准营销解决方案

本例是科赛网的比赛

  • 赛题描述

本练习赛的数据,选自UCI机器学习库中的「银行营销数据集(Bank Marketing Data Set)」

这些数据与葡萄牙银行机构的营销活动相关。这些营销活动以电话为基础,一般,银行的客服人员需要联系客户至少一次,以此确认客户是否将认购该银行的产品(定期存款)。

因此,与该数据集对应的任务是「分类任务」,「分类目标」是预测客户是(' 1 ')或者否(' 0 ')购买该银行的产品。

  • 导入相关库
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
import pandas as pd
import numpy as np
  • 查看数据集
data = pd.read_csv('train_set.csv')
data.head()

字段分别为表示为客户ID、年龄、职业、婚姻状况、受教育水平、是否有违约记录、每年账户的平均余额、是否有住房贷款、是否有个人贷款、与客户联系的沟通方式、最后一次联系的时间(几号)、最后一次联系的时间(月份)、最后一次联系的交流时长、在本次活动中,与该客户交流过的次数、距离上次活动最后一次联系该客户,过去了多久(999表示没有联系过)、在本次活动之前,与该客户交流过的次数、上一次活动的结果、预测客户是否会订购定期存款业务。
数据集没有缺失值,不需要填充。

  • 查看数据概述
data.describe()

从表格可以看出,客户最大年龄为95,最小年龄为18,平均年龄为41。"在距离上次活动最后一次联系该客户,过去了多久"这个字段中最小为-1,最大为854,并没有999。可以推断,应该-1表示为没联系过。

由于最后一次联系的时间(几号)、最后一次联系的时间(月份)、距离上次活动最后一次联系该客户这个三个特征有重合,并且前两个字段无法说明距今时间长度,故删除前两个字段。然后将'job','marital','education','default','housing','loan','contact','poutcome'这些类别变量进行哑变量处理。

data.drop(['ID','day','month'], axis=1, inplace=True)
dummy = pd.get_dummies(data[['job','marital','education','default','housing','loan','contact','poutcome']])
data = pd.concat([dummy, data], axis=1)
data.drop(['job','marital','education','default','housing','loan','contact','poutcome'], inplace=True, axis=1)
  • 拆分数据集
from sklearn.model_selection import train_test_split
X = data[data.columns[:-1]]
y = data.y
Xtrain, Xtest, ytrian, ytest = train_test_split(X, y, test_size=0.3, random_state=90)
  • 确定随机森林数目
scorel = []
for i in range(0,200,10):
    rfc = RandomForestClassifier(n_estimators=i+1,
                                    n_jobs=-1,
                                    random_state=90)
    score = cross_val_score(rfc,Xtrain,ytrian,cv=10).mean()
    scorel.append(score)
print(max(scorel),(scorel.index(max(scorel))*10)+1)
plt.figure(figsize=[20,5])
plt.plot(range(1,201,10),scorel)
plt.show()

0.8969014833647764 181

通过10重交叉验证,绘制学习曲线,确定模型森林数目为181,最高得分为0.8969
但是我们并不知道最高得分确实在181还是在其附近,所以需在181范围再进行一次验证

scorel = []
for i in range(175,186):
    rfc = RandomForestClassifier(n_estimators=i,
                                n_jobs=-1,
                                random_state=90)
    score = cross_val_score(rfc,Xtrain,ytrian,cv=10).mean()
    scorel.append(score)
print(max(scorel),([*range(175,186)][scorel.index(max(scorel))]))
plt.figure(figsize=[20,5])
plt.plot(range(175,186),scorel)
plt.show()

0.8969014833647764 181


很巧的是,181就是我们要找的最合适的森林数目。我们确定下来:n_estimators=181

  • 网格搜索法确定其他参数
param_grid = {'max_depth':np.arange(1, 20, 1)}

rfc = RandomForestClassifier(n_estimators=181
                            ,random_state=90
                            )
GS = GridSearchCV(rfc,param_grid,cv=10)
GS.fit(Xtrain,ytrian)
GS.best_params_
GS.best_score_

{'max_depth': 14} 0.8996106314542068
经过漫长的计算,终于得到了结果。可以看到在树的最大层数为14层时,得到了最高分:0.8996,较之前上升了0.0027。我们确定下来max_depth=14。

param_grid = {'min_samples_leaf':np.arange(1, 20, 1)}

rfc = RandomForestClassifier(n_estimators=181
                           ,random_state=90
                           )
GS = GridSearchCV(rfc,param_grid,cv=10)
GS.fit(Xtrain,ytrian)
GS.best_params_
GS.best_score_

{'min_samples_leaf': 7} 0.899046329213927
又经过了漫长的等待,我们计算出了最佳min_samples_leaf参数为7, 最佳得分为0.8990。但是得分却下降了0.0006。我们知道决策树和随机森林是天生过拟合的模型。调节参数(预剪枝)几乎都是为了防止模型过拟合,调节min_samples_leaf后,模型就会进入欠拟合状态。所以max_depth=14时,可能是我们的模型已经到达的极限了。想要提升模型准确度,可能需要再从特征工程上着手了,调节其他参数将不再有效。

  • 建立模型
rfc = RandomForestClassifier(n_estimators=181, max_depth=14, random_state=90)
rfc.fit(Xtrain, ytrian)
rfc.score(Xtest, ytest)

0.9063981042654028
可以看出模型在测试集上的得分为0.906,结果还算不错。

  • 输出比赛结果
data2 = pd.read_csv('test_set.csv')
ID = data2.ID
data2.drop(['ID','day','month'], axis=1, inplace=True)
dummy = pd.get_dummies(data2[['job','marital','education','default','housing','loan','contact','poutcome']])
data2= pd.concat([dummy, data2], axis=1)
data2.drop(['job','marital','education','default','housing','loan','contact','poutcome'], axis=1, inplace=True)
pred = rfc.predict_proba(data2)
data3 = pd.DataFrame(pred, index=ID, columns=['pred0', 'pred'])
data3.drop('pred0', axis=1, inplace=True)
data3.to_csv('result.csv')

比赛结果要求字段为pred,表示预测客户订购定期存款业务的概率,部分结果如下图


你可能感兴趣的:(随机森林:提供银行精准营销解决方案)