Task05:数据建模及模型评估

文章目录

  • 前言
  • 第三章 模型搭建和评估
    • 特征工程
      • 任务一:缺失值填充
      • 任务二:编码分类变量
    • 模型搭建
      • 任务一:切割训练集和测试集
      • 任务二:模型创建
      • 任务三:输出模型预测结果
    • 模型评估
      • 任务一:交叉验证
      • 任务二:混淆矩阵
      • 任务三:ROC曲线
  • 总结
  • 参考资料


前言

经过前面的学习,我们可以对数据本身进行处理,比如对数据本身的增删查补,还可以做必要的清洗工作。下面我们就要开始使用我们前面处理好的数据了。这一章我们要做的就是使用数据,我们做数据分析的目的是,运用我们的数据以及结合我们的业务来得到某些我们需要知道的结果。那么分析的第一步就是建模,搭建一个预测模型或者其他模型;我们从这个模型得到结果之后,我们要分析我的模型是不是足够的可靠,那我就需要评估这个模型。接下来我们学习模型建模和评估

第三章 模型搭建和评估

经过前面的探索性数据分析我们可以很清楚的了解到数据集的情况。

import pandas as pd
import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
from IPython.display import Image
%matplotlib inline
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
plt.rcParams['figure.figsize'] = (10, 6)  # 设置输出图片大小
# 读取训练数集
train = pd.read_csv('train.csv')
train.shape

在这里插入图片描述

train.head()

Task05:数据建模及模型评估_第1张图片

特征工程

任务一:缺失值填充

对分类变量缺失值:填充某个缺失值字符(NA)、用最多类别的进行填充;
对连续变量缺失值:填充均值、中位数、众数。

# 对分类变量进行填充
train['Cabin'] = train['Cabin'].fillna('NA')
train['Embarked'] = train['Embarked'].fillna('S')
# 对连续变量进行填充
train['Age'] = train['Age'].fillna(train['Age'].mean())
# 检查缺失值比例
train.isnull().sum().sort_values(ascending=False)

Task05:数据建模及模型评估_第2张图片

任务二:编码分类变量

# 取出所有的输入特征
data = train[['Pclass','Sex','Age','SibSp','Parch','Fare', 'Embarked']]
# 进行虚拟变量转换
data = pd.get_dummies(data)
data.head()

Task05:数据建模及模型评估_第3张图片

经过前面的两章的学习,我们可以对数据本身进行处理,比如对数据本身的增删查补,还可以做必要的清洗工作。下面我们就要开始使用我们前面处理好的数据了。这一章我们要做的就是使用数据,我们做数据分析的目的是,运用我们的数据以及结合我的业务来得到某些我们需要知道的结果。那么分析的第一步就是建模,搭建一个预测模型或者其他模型;我们从这个模型得到结果之后,我们要分析我的模型是不是足够的可靠,那我就需要评估这个模型。这一节我们学习建模,下一节我们学习评估。

我们拥有的泰坦尼克号的数据集,那么我们这次的目的就是,完成泰坦尼克号存活预测这个任务。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from IPython.display import Image
%matplotlib inline
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
plt.rcParams['figure.figsize'] = (10, 6)  # 设置输出图片大小

【思考】这些库的作用是什么呢?

IPython有一组预先定义好的所谓的魔法函数(Magic Functions),
使用%matplotlib命令可以将matplotlib的图表直接嵌入到Notebook之中,
或者使用指定的界面库显示图表,它有一个参数指定matplotlib图表的显示方式。
inline表示将图表嵌入到Notebook中。
Seaborn提供了许多定制的主题和用于控制matplotlib图形外观的高级界面。

载入我们提供清洗之后的数据(clear_data.csv),大家也将原始数据载入(train.csv),说说他们有什么不同?

原始数据包括了所有12个特征的情况,而清洗后的数据将Sex、Embarked按照特征数量进行了统计。

train = pd.read_csv("train.csv")
train.head()

Task05:数据建模及模型评估_第4张图片


clear = pd.read_csv("clear_data.csv")
clear.head()

Task05:数据建模及模型评估_第5张图片

模型搭建

处理完前面的数据我们就得到了建模数据,下一步是选择合适的模型。
在进行模型选择之前我们需要先知道数据集最终是进行监督学习还是无监督学习
模型的选择一方面是通过我们的任务来决定的。
除了根据我们的任务来选择模型外,还可以根据数据样本量以及特征的稀疏性来决定。
刚开始我们总是先尝试使用一个基本的模型来作为其baseline,进而再训练其他模型做对比,最终选择泛化能力或性能比较好的模型。

这里我的建模,并不是从零开始,自己一个人完成完成所有代码的编译。我们这里使用一个机器学习最常用的一个库(sklearn)来完成我们的模型的搭建。

下面给出sklearn的算法选择路径,供大家参考。
Task05:数据建模及模型评估_第6张图片

【思考】数据集哪些差异会导致模型在拟合数据时发生变化?
数据的离散程度 、数据量的大小 、数据的维度(特征)、数据是否有标记

任务一:切割训练集和测试集

这里使用留出法划分数据集

将数据集分为自变量和因变量
按比例切割训练集和测试集(一般测试集的比例有30%、25%、20%、15%和10%)
使用分层抽样
设置随机种子以便结果能复现

【思考】划分数据集的方法有哪些?
留出法(Hold-out)、交叉验证法(Cross validation)、自助法(Bootstrapping)

数据量充足的时候,通常采用 留出法 或者 k折交叉验证法 来进行训练/测试集的划分;
数据集小且难以有效划分训练/测试集时使用 自助法;
数据集小且可有效划分的时候最好使用 留一法 来进行划分。

为什么使用分层抽样,这样的好处有什么?

分层抽样将总体单位按其属性特征分成若干类型或层,然后在类型或层中随机抽取样本单位。好处是通过划类分层,增大了各类型中单位间的共同性,容易抽出具有代表性的调查样本,抽样误差比较小。

# 要从clear_data.csv和train.csv中提取train_test_split()所需的参数
from sklearn.model_selection import train_test_split
# 一般先取出X和y后再切割,有些情况会使用到未切割的,这时候X和y就可以用,x是清洗好的数据,y是我们要预测的存活数据'Survived'
X = clear
y = train['Survived']
# 对数据集进行切割
X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, random_state=0)
X_train.shape, X_test.shape

在这里插入图片描述

【思考】什么情况下切割数据集的时候不用进行随机选取?
数据集本身就足够随机,这种情况一般是随机处理后的。或者使用交叉验证法中的留一法处理数据。

任务二:模型创建

创建基于线性模型的分类模型(逻辑回归);
创建基于树的分类模型(决策树、随机森林);
分别使用这些模型进行训练,分别得到训练集和测试集的得分;
查看模型的参数,并更改参数值,观察模型变化。

from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier

# 默认参数逻辑回归模型
lr = LogisticRegression()
lr.fit(X_train, y_train)

在这里插入图片描述

# 查看训练集和测试集score值
print("Training set score: {:.3f}".format(lr.score(X_train, y_train)))
print("Testing set score: {:.3f}".format(lr.score(X_test, y_test)))

在这里插入图片描述

# 调整参数后的逻辑回归模型
lr2 = LogisticRegression(C=100)
lr2.fit(X_train, y_train)

在这里插入图片描述

print("Training set score: {:.3f}".format(lr2.score(X_train, y_train)))
print("Testing set score: {:.3f}".format(lr2.score(X_test, y_test)))

在这里插入图片描述


# 默认参数的随机森林分类模型
rfc = RandomForestClassifier()
rfc.fit(X_train, y_train)

Task05:数据建模及模型评估_第7张图片

print("Training set score: {:.3f}".format(rfc.score(X_train, y_train)))
print("Testing set score: {:.3f}".format(rfc.score(X_test, y_test)))

在这里插入图片描述

rfc2 = RandomForestClassifier(n_estimators=100, max_depth=5)
rfc2.fit(X_train, y_train)

Task05:数据建模及模型评估_第8张图片

print("Training set score: {:.3f}".format(rfc2.score(X_train, y_train)))
print("Testing set score: {:.3f}".format(rfc2.score(X_test, y_test)))

在这里插入图片描述

【思考】为什么线性模型可以进行分类任务,背后是怎么的数学关系?
对于多分类问题,线性模型是怎样进行分类的?

个人感觉是被拟合的直线给分隔开 来进行分类 一般也就二分;
分类被分为多次 每一次只选择两个类别进行分类。

任务三:输出模型预测结果

输出模型预测分类标签
输出不同分类标签的预测概率

# 预测标签
pred = lr.predict(X_train)
# 此时我们可以看到01的数组
pred[:10]

在这里插入图片描述

# 预测标签概率
pred_proba = lr.predict_proba(X_train)
pred_proba[:10]

Task05:数据建模及模型评估_第9张图片

【思考】预测标签的概率对我们有什么帮助?

预测标签的概率能够让我们判断该标签的可信度,越接近1的话可信度越高。

根据之前的模型建模,我们知道如何运用sklearn这个库来完成建模,以及我们知道了数据集的划分等等操作。那么一个模型我们怎么知道它好不好用呢?以至于我们能不能放心的使用模型给我的结果呢?那么这一节我们学习的评估,就会很有帮助。

加载下面的库

import pandas as pd
import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
from IPython.display import Image
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
%matplotlib inline
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
plt.rcParams['figure.figsize'] = (10, 6)  # 设置输出图片大小

任务:加载数据并分割测试集和训练集

from sklearn.model_selection import train_test_split
# 一般先取出X和y后再切割,有些情况会使用到未切割的,这时候X和y就可以用,x是清洗好的数据,y是我们要预测的存活数据'Survived'
data = pd.read_csv('clear_data.csv')
train = pd.read_csv('train.csv')
X = data
y = train['Survived']
# 对数据集进行切割
X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, random_state=0)
# 默认参数逻辑回归模型
lr = LogisticRegression()
lr.fit(X_train, y_train)

在这里插入图片描述

模型评估

模型评估是为了知道模型的泛化能力。
交叉验证(cross-validation)是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。
在交叉验证中,数据被多次划分,并且需要训练多个模型。
最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。
准确率(precision)度量的是被预测为正例的样本中有多少是真正的正例。
召回率(recall)度量的是正类样本中有多少被预测为正类。
f-分数是准确率与召回率的调和平均。

任务一:交叉验证

用10折交叉验证来评估之前的逻辑回归模型
计算交叉验证精度的平均值
Task05:数据建模及模型评估_第10张图片

from sklearn.model_selection import cross_val_score
lr = LogisticRegression(C=100)
scores = cross_val_score(lr, X_train, y_train, cv=10)
scores

在这里插入图片描述

print("Average cross-validation score: {:.3f}".format(scores.mean()))

在这里插入图片描述

【思考】k折越多的情况下会带来什么样的影响?
一般而言,k折越多,评估结果的稳定性和保真性越高,不过整个计算的复杂度越高。一种特殊的情况是k=m,m为数据集样本个数,这种特例称为留一法,结果往往比较准确。

任务二:混淆矩阵

计算二分类问题的混淆矩阵
计算精确率、召回率以及f-分数

【思考】什么是二分类问题的混淆矩阵,理解这个概念,知道它主要是运算到什么任务中的?

二分类问题的混淆矩阵是一个 2 维方阵,它主要用于评估二分类问题的好坏,它主要运用于二分类任务中。实际上,多分类问题依然可以转换为二分类问题进行处理。
Task05:数据建模及模型评估_第11张图片
Task05:数据建模及模型评估_第12张图片

from sklearn.metrics import confusion_matrix
# 训练模型
lr = LogisticRegression(C=100)
lr.fit(X_train, y_train)
# 模型预测结果
pred = lr.predict(X_train)
# 混淆矩阵
confusion_matrix(y_train, pred)

在这里插入图片描述

from sklearn.metrics import classification_report
# 精确率、召回率以及f1-score
print(classification_report(y_train, pred))

Task05:数据建模及模型评估_第13张图片

任务三:ROC曲线

绘制ROC曲线

【思考】什么是ROC曲线,ROC曲线的存在是为了解决什么问题?

ROC的全称是Receiver Operating Characteristic Curve,中文名字叫“受试者工作特征曲线”,顾名思义,其主要的分析方法就是画这条特征曲线。ROC曲线的存在主要用于衡量模型的泛化性能,即分类效果的好坏。

from sklearn.metrics import roc_curve
fpr, tpr, thresholds = roc_curve(y_test, lr.decision_function(X_test))
plt.plot(fpr, tpr, label="ROC Curve")
plt.xlabel("FPR")
plt.ylabel("TPR (recall)")
# 找到最接近于0的阈值
close_zero = np.argmin(np.abs(thresholds))
plt.plot(fpr[close_zero], tpr[close_zero], 'o', markersize=10, label="threshold zero", fillstyle="none", c='k', mew=2)
plt.legend(loc=4)

Task05:数据建模及模型评估_第14张图片

【思考】对于多分类问题如何绘制ROC曲线?

经典的ROC曲线适用于对二分类问题进行模型评估,通常将它推广到多分类问题的方式有两种:对于每种类别,分别计算其将所有样本点的预测概率作为阈值所得到的TPR和FPR值(是这种类别为正,其他类别为负),最后将每个取定的阈值下,对应所有类别的TPR值和FPR值分别求平均,得到最终对应这个阈值的TPR和FPR值。

总结

通过前面的学习,我们了解了数据的一些基本信息,并对数据进行了清洗与重构,接下来我们就要进行数据的建模来分析我们想要得到的结果,进而对模型进行评估,看其是否可靠。

参考资料

https://www.cnblogs.com/most-silence/p/15495346.html
https://www.cnblogs.com/learncode123/p/15022195.html
https://blog.csdn.net/qq_33128705/article/details/118163882
https://www.cnblogs.com/most-silence/p/15495346.html

你可能感兴趣的:(机器学习,python,数据挖掘,数据分析)