# 科学计算模块
import numpy as np
import pandas as pd
# 绘图模块
import matplotlib as mpl
import matplotlib.pyplot as plt
# 自定义模块
from ML_basic_function import *
在此前的算法学习过程中,我们都是先从机器学习的算法理论出发,然后通过手动编程的方式来进行算法的建模实践。这其实是一种重内力大于重招式的学习方法,在理论+手动实现的学习过程中,我们不仅通过原理的手动实现深化了对基础原理的理解,同时也一定程度锻炼了代码实现能力,而这些其实都是一名算法工程师的基本功。
不过,伴随着算法难度逐渐加深,“原理+手动实现”的学习方式将逐渐变得不太适用,至少对初学者来说,面对复杂算法学习时,“原理+手动实现”的学习方式并不高效。对于定位在利用算法解决问题的算法工程岗位来说,整体的技能要求其实是内功和招式并重的。也就是说,我们不仅需要通晓算法原理以及具备一定的编程能力,同时也需要掌握一些能够比手动编写算法更高效的执行机器学习建模的工具,也就是掌握一些算法包或者算法库工具。
所谓算法库或者算法包,其实就是指封装了一系列可以执行机器学习算法建模相关功能的函数和类的程序模块,其功能调用方法和此前我们自定义的ML_basic_function.py文件类似。当然,对于不同的编程语言和运行环境,其实有对应不同的算法库或算法包,例如在R语言中,就有数以万计的针对不同算法的一个个独立的算法包,比较有名的诸如提供分类模型建模功能支持的rpart包、提供聚类算法建模功能的cluster包等等。尽管这些分门别类的包在每一项(类)具体算法建模过程中都能提供非常专业的功能支持,但由于这些算法包是由不同的团队/个人来进行的开发和维护,包的使用方法和维护相同都各不相同,这就使得一个使用R语言的算法工作者在日常工作中至少需要和几十个算法包打交道,并且由于各个包相对独立,使得算法工作者需要时刻关注各包的更新情况及兼容方法(如果需要的话),这些都在无形之中对使用R语言进行机器学习建模造成了一定的阻碍。
虽然Python也是开源语言,但或许是吸取了R语言的前车之鉴(Python比R诞生更晚),也或许是拥有了更完整的科学计算库SciPy,Python数据科学的一些核心功能都由一些更加统一和规范的第三方库来提供,例如科学计算库NumPy、表格数据分析包Pandas,以及机器学习算法库Scikit-Learn。
算法包、算法库、算法框架概念辨析:
很多时候我们在使用这三个概念的时候并不会特别在意三者的区别,或者说大多数时候这三者概念的区别并不会影响我们实际对不同的程序模块的称呼,例如我们会称呼sklearn为一个算法库,要使用xgboost时候需要安装一个对应的算法包,而类似PyTorch、TensorFlow这种能够执行深度学习运算的模块,我们则会称其为算法框架。但其实三者其实还是略有区别,对于算法包来说,可能只是包含了支持单独一个或一类算法使用的类或函数;而算法库则指代封装程度更高、对机器学习这一大类算法功能实现更加完整、甚至是定义了一类数据结构的代码模块;当然,如果是算法框架,则会在算法库的基础上,更进一步定义基本对象类型的运行方式。
Scikit-Learn最早是由David Cournapeau等人在2007年谷歌编程之夏(Google Summer of Code)活动中发起的一个项目,并与2010年正式开源,目前归属INRIA(法国国家信息与自动化研究所)。而项目取名为Scikit-Learn,也是因为该算法库是基于SciPy来进行的构建,而Scikit则是SciPy Kit(SciPy衍生的工具套件)的简称,而learn则不禁让人联系到机器学习Machine Learning。因此,尽管Scikit-Learn看起来不如NumPy、Pandas短小精悍,但其背后的实际含义也是一目了然。
经过数十年的发展,Scikit-Learn已经成为目前机器学习领域最完整、同时也是最具影响力的算法库,更重要的是,该项目拥有较为充裕的资金支持和完整规范的运作流程,以及业内顶级的开发和维护团队,目前以三个月一个小版本的速度在进行更新迭代。
作为非营利性组织维护的开源项目,我们可以从https://scikit-learn.org/stable/ 网址登陆Scikit-Learn项目官网。
值得一提的是,对于大多数流行的开源项目,官网都是学习的绝佳资源。而对于Scikit-Learn来说尤其是如此。要知道,哪怕是顶级开源项目盛行的当下,Scikit-Learn官网在相关内容介绍的详细和完整程度上,都是业内首屈一指的。无论是Scikit-Learn的安装、更新,还是具体算法的使用方法,甚至包括算法核心原理的论文出处以及算法使用的案例,在Scikit-Learn官网上都有详细的介绍。稍后我们将对其逐一进行详细介绍。
正是因为Scikit-Learn官网内容的完整性,国内也有许多团队试图将Scikit-Learn项目进行翻译、并建立相应的中文社区。但遗憾的是,由于国内的大多数团队对于开源项目的维护、管理和资金运作都缺乏必要的经验,导致诸多所谓的Scikit-Learn中文社区其实并不是真正意义上的开源社区,而是一堆过时的、不完整的、不准确的内容翻译拼凑而成的内容网站,借着技术传播之名、行商业产品引流之实。而这也最终导致国内的Scikit-Learn中文社区,充其量只能作为外文技术内容翻译的一个参考,而无法作为技术解释和技术学习的核心内容。因此,围绕Scikit-Learn的内容查阅,我们更推荐直接访问外文官网。
接下来,我们围绕Scikit-Learn官网的基本架构与核心功能进行介绍,并同时介绍关于Scikit-Learn的基本安装与使用方法。进入Scikit-Learn官网,首先看到的是功能导航栏、sklearn基本情况介绍以及几个核心功能跳转链接。
关于核心信息部分,我们能够看到Scikit-Learn作为开源项目的基本申明,以及该开源项目所遵循的BSD协议。当然比较重要的一点是,sklearn是构建在NumPy、SciPy和matplotlib上的相关申明,后面我们会看到,sklearn中核心能够处理的对象类型就是NumPy当中的数组(array),同时sklearn中的诸多数学计算过程也都是基于SciPy中的相关功能来进行的实现。
值得注意的是,底层数据结构对算法库的影响是至关重要的,在分布式计算框架Spark中,算法库就有两类,其一是围绕Spark基本数据结构RDD构建的ML包,其二则是围绕Spark高级数据结构DataSet和DataFrame构建的MLLib包。当然由于基于更高级的数据结构所构建的算法模型更易于使用,因此ML包已经不再更新了。
接下来核心介绍功能导航栏的相关功能。首先是关于Scikit-Learn的安装方法,我们可以在Install内进行查看:
该页面主要介绍了关于sklearn在不同平台下、使用不同工具的安装方法。如果是首次安装sklearn,可参考上述代码在命令行中进行安装。并且官网还贴心的指出,可以通过后面的代码查看sklearn的安装情况,其中第一行是查看目前安装的sklearn版本以及安装位置,第二行代码是查看安装好的第三方库(在当前虚拟环境下),第三行代码则是查看当前已经安装好的sklearn版本。
当然,该页面还细心的给出了虚拟环境不同版本第三方包冲突后的解决方案,以及sklearn的包的依赖包的安装方法,包括新版sklearn所需基础依赖包的版本号等。另外,该页面还给出了新版sklearn的Mac M1版本的包的安装方法,由此可见sklearn官网内容的详细程度。
当然,对于通过Anaconda安装Python的小伙伴来说,sklearn包已经在安装Anaconda的过程中安装好了,并且不同平台的Anaconda就已经自带了能够在对应平台运行的sklearn包,我们可以直接通过下述语句进行sklearn版本的查看:
import sklearn
sklearn.__version__
#'0.23.2'
本次课程将以sklearn 0.23+版本作为主要使用版本,相关方法兼容sklearn 0.22、0.24等版本,即0.22版本以上即可参与课程学习。如果版本低于0.22的,可通过如下方式进行版本更新:
pip install --upgrade sklearn
更多关于pip工具的讲解和使用,以及更加详细的Python第三方库管理方法,参见Python编程基础公开课的内容:https://www.bilibili.com/video/BV1U54y1W7jw?p=2
sklearn从0.21版本开始不再支持Python 2,课程建议在Python 3环境中安装新版sklearn。
对于Mac M1的用户,考虑到Mac的多版本Python管理问题以及新版sklearn适配问题,建议使用Anaconda进行sklearn的安装,目前实测Mac版Anaconda已支持0.23.2版本,若后续Mac版Anaconda支持sklearn 0.24,则可随Anaconda一起更新。
作为功能完整算法库,sklearn不仅提供了完整的机器学习建模功能支持,同时也提供了包括数据预处理、模型评估、模型选择等诸多功能,并且支持以Pipelines(管道)形式构建机器学习流,而基于Pipeline和模型选择功能甚至能够衍化出AutoML(自动机器学习)的相关功能,也就是现在所谓的Auto-sklearn。
不过在开始阶段,我们还是需要从sklearn的基础功能入手进行学习,然后循序渐进、逐步深化对工具的理解和掌握。
很多功能完整的第三方库其实都有各自定义的核心对象类型,如NumPy中的数组(Array)、Pandas中的DataFrame、以及PyTorch中的张量(tensor)等,当然这些由第三方库定义的数据结构实际上都是定义在源码中的某个类,在调用这些对象类型时实际上都是在实例化对应的类。而对于sklearn来说,定义的核心对象类型就是评估器。我们可以将评估器就理解成一个个机器学习模型,而sklearn的建模过程最核心的步骤就是围绕着评估器进行模型的训练。
同样,围绕评估器的使用也基本分为两步,其一是实例化该对象,其二则是围绕某数据进行模型训练。接下来,我们就尝试调用sklearn中的线性回归评估器(模型)来进行线性回归建模实验。
首先是准备数据,我们还是以此前定义的、基本规律满足 y = 2 x 1 − x 2 + 1 y=2x_1-x_2+1 y=2x1−x2+1分布回归类数据集:
# 设置随机数种子
np.random.seed(24)
# 扰动项取值为0.01
features, labels = arrayGenReg(delta=0.01)
# 查看数据
features
#array([[ 1.32921217, -0.77003345, 1. ],
# [-0.31628036, -0.99081039, 1. ],
# [-1.07081626, -1.43871328, 1. ],
# ...,
# [ 1.5507578 , -0.35986144, 1. ],
# [-1.36267161, -0.61353562, 1. ],
# [-1.44029131, 0.50439425, 1. ]])
# 可视化数据分布
plt.subplot(121)
plt.plot(features[:, 0], labels, 'o')
plt.subplot(122)
plt.plot(features[:, 1], labels, 'o')
然后,尝试调用sklearn中的线性回归评估器,这里需要知道的是,sklearn其实是分模块存储不同评估器的类或者常用函数的,比如sklearn中的线性回归评估器LinearRegression实际上是在sklearn包中的
linear_model模块下,因此调用该评估器其实会有以下三种方法:
# 方法一:直接导入sklearn
import sklearn
# 然后在sklearn里面的linear_model模块内查询LinearRegression评估器
sklearn.linear_model.LinearRegression
#sklearn.linear_model._base.LinearRegression
# 方法二:直接导入sklearn内的linear_model模块
from sklearn import linear_model
# 然后在linear_model模块内查询LinearRegression评估器
linear_model.LinearRegression
#sklearn.linear_model._base.LinearRegression
# 方法三:直接导入LinearRegression评估器
from sklearn.linear_model import LinearRegression
# 然后即可直接查询LinearRegression评估器
LinearRegression
#sklearn.linear_model._base.LinearRegression
默认情况下,我们采用第三种方法导入评估器。
需要知道的是,导入评估器实际上就相当于是导入了某个模块(实际上是某个类),但要使用这个评估器类,还需要对其进行实例化操作才能进行后续的使用,类的实例化过程会有可选参数的输入,当然也可以不输入任何参数直接实例化该类的对象:
model = LinearRegression()
注意,此时model就是LinearRegression类的一个实例化对象,而这个model对象,其实就是一个线性回归模型。当然,刚被实例化后的模型实际上还是一个未被训练的模型,即此时的model其实是一个包含了若干个(暂时不确定)参数、并且参数取值待定的模型。接下来,我们需要输入上述数据对该模型进行训练。需要注意的是,此时我们无需在输入的特征矩阵中加入一列全都是1的列:
X = features[:, :2] # 特征矩阵
y = labels # 标签数组
# 调用评估器中的fit方法进行模型训练
model.fit(X, y)
#LinearRegression()
fit方法是LinearRegression类中的一个至关重要的方法,同时也是sklearn中代表模型的评估器都具有的方法,当fit方法执行完后,即完成了模型训练,此时model就相当于一个参数个数、参数取值确定的线性方程。而这些包括参数取值在内的所有模型信息,我们都可以通过调用model对象当中的一些属性来查看,例如:
# 查看自变量参数
model.coef_
#array([[ 1.99961892, -0.99985281]])
# 查看模型截距
model.intercept_
#array([0.99970541])
至此,我们就完成了模型训练过程。这里需要特别强调的是,sklearn默认接收的对象类型是数组,即无论是特征矩阵还是标签数组,最好都先转化成array对象类型再进行输入。此外,sklearn还能够处理array-like的数据,例如和数组形式相同的列表,但并不建议这么做。同时,在sklearn中,我们往往以称特征矩阵为Features Matrix,称特征数组为Target Vector,并且以 n s a m p l e s n_{samples} nsamples表示数据行数、 n f e a t u r e s n_{features} nfeatures表示特征矩阵列数:
当然我们也可以对比最小二乘法的手动计算结果:
np.linalg.lstsq(features, labels, rcond=-1)[0]
#array([[ 1.99961892],
# [-0.99985281],
# [ 0.99970541]])
接下来,我们还可以利用该模型进行数值预测,我们就将模型应用于训练数据进行预测,可以使用model中的predict方法进行预测,同样,该方法也是sklearn中所有评估器类的一个方法:
model.predict(X)[:10]
#array([[ 4.42754333],
# [ 1.35792976],
# [ 0.29698247],
# [ 1.83264567],
# [-2.47201615],
# [ 0.46806169],
# [ 2.8184199 ],
# [-0.81254525],
# [ 2.84841913],
# [ 0.81582296]])
y[:10]
#array([[ 4.43811826],
# [ 1.375912 ],
# [ 0.30286597],
# [ 1.81970897],
# [-2.47783626],
# [ 0.47374318],
# [ 2.83085905],
# [-0.83695165],
# [ 2.84344069],
# [ 0.8176895 ]])
通过对比,我们不难发现发现,模型整体预测效果较好。当然,在借助sklean进行建模的时候,我们也可以借助sklearn提供的模型评估函数来进行模型最终效果的评估,而这些实用函数,就是sklearn算法库中第二类重要的对象类型。
接下来,我们尝试调用sklearn中的MSE计算函数,对上述建模结果进行模型评估。值得注意的是,这些调用的对象不再是评估器(类),而是一个个单独的函数。函数的调用过程不需要进行实例化,直接导入相关模块即可:
# 在metrics模块下导入MSE计算函数
from sklearn.metrics import mean_squared_error
# 输入数据,进行计算
mean_squared_error(model.predict(X), y)
#9.300731379745624e-05
l = model.coef_.flatten().tolist()
l.extend(model.intercept_.tolist())
l
#[1.9996189241115245, -0.9998528065894624, 0.9997054101551712]
w = np.array(l).reshape(-1, 1)
w
#array([[ 1.99961892],
# [-0.99985281],
# [ 0.99970541]])
# 对比手动计算的MSE计算结果
MSELoss(features, w, y)
#array([[9.30073138e-05]])
至此,我们即完成了调用sklearn进行建模的简单流程,当然,在更进一步加入数据预处理、数据集切分以及模型结果验证等步骤之前,我们需要讨论几个至关重要的影响模型建模过程的核心问题:
上述调用sklearn进行的机器学习建模,不仅代码简单、而且过程也非常清晰,这些其实全都得益于Scikit-Learn对各评估器都设置了较为普适的初始默认参数所导致。我们知道,每个模型的构建过程其实都会涉及非常多的参数和超参数,参数的训练过程稍后讨论,此处先讨论关于sklearn中模型超参数的设置方法。
所谓超参数,指的是无法通过数学过程进行最优值求解、但却能够很大程度上影响模型形式和建模结果的因素,例如线性回归中,方程中自变量系数和截距项的取值是通过最小二乘法或者梯度下降算法求出的最优解,而例如是否带入带入截距项、是否对数据进行归一化等,这些因素同样会影响模型形态和建模结果,但却是“人工判断”然后做出决定的选项,而这些就是所谓的超参数。
而sklearn中,对每个评估器进行超参数设置的时机就在评估器类实例化的过程中。首先我们可以查看LinearRegression评估器的相关说明,其中Parameters部分就是当前模型超参数的相关说明:
LinearRegression?
我们可以简单解释上述评估器内的超参数选项:
不难发现,这些都是影响建模过程、并且需要人工决策的选项,而这些超参数可以在实例化过程中进行设置,例如我们创建一个不包含截距项的线性方程模型:
model1 = LinearRegression(fit_intercept=False)
model1
#LinearRegression(fit_intercept=False)
model1.get_params()
model1.get_params()
model1.get_params()
#{'copy_X': True, 'fit_intercept': False, 'n_jobs': None, 'normalize': False}
通过输入模型对象,我们就可以查看该评估器超参数取值情况(默认参数取值不显示),或者可以直接使用get_params方法查看模型参数。而对于一个已经实例化好的评估器,我们都可以通过set_params来对其进行参数修改,如果是已经训练好的模型,该方法不会抹去之前训练结果,但会影响下次训练流程。
model1.set_params(fit_intercept=True)
#LinearRegression()
model.set_params(fit_intercept=False)
#LinearRegression(fit_intercept=False)
model.coef_
#array([[ 1.99961892, -0.99985281]])
model.intercept_
#array([0.99970541])
model.fit(X,y)
#LinearRegression(fit_intercept=False)
model.coef_,model.intercept_
#(array([[ 1.93291366, -0.96799981]]), 0.0)
我们可以简单评估器调用过程过程中各操作的代码意义和建模意义对比如下:
值得注意,超参数的设置方法和参数不同,一个模型的参数形式基本根据模型的计算规则就能确定,而一个模型包含几个超参数,其实是因模型而异、因工具而异的,例如,对于sklearn来说,我们可以通过n_jobs来设置参与计算的CPU核数,而在Spark中则是通过配置文件中的配置选项来分配每个任务的计算资源,不需要在算法执行过程中设置该超参数。但无论如何,sklearn中的超参数设计一定是一整套最符合sklearn设计理念以及模型运行方式的超参数,我们在实例化模型的过程中必须谨慎的选择模型超参数,以达到最终模型训练的预期。不过sklearn非常人性化的一点是,尽管大多数模型多有非常多的超参数(线性回归除外),但sklearn都对其设置了一套非常普适的默认值,从而使得在很多场景下,在无需特别关注的一些超参数的取值上,我们都能够直接使用默认值带入进行建模。
其实,我们还可以给出超参数的一个更加“广义”的定义:只要是影响模型建模过程的因素都是超参数,例如选取哪种优化方法、甚至是选取哪种算法进行建模,如果需要,我们都可以将其视作超参数,而不仅限于评估器中给出的这些。当然,如果要围绕这些超参数进行探讨,则需要更多的理论判别依据与实现工具。不过就模型选择来说,其实已经有一些框架能够实现模型的自动选择(不仅是模型自动调参,而是自动对比模型性能进而进行模型选择)。
不过尽管在定义上,参数与超参数是严格不同的,但很多场景下我们也不会对其进行严格区分,比如在实例化评估器的过程中,我们也更多的称其为“进行参数设置”。
需要注意的是,此处线性方程中的normalize并不是此前介绍的归一化方法,而是一种用每一行数据除以每一行数据的l1范数或者l2范数的方法,这种方法会在稍后进行介绍。
此外,我们还能够在类的说明中查阅关于模型对象在训练完后的相关属性,注意,这些属性只有当模型训练完毕后才能调用查看,对于线性方程来说,模型训练后可查看如下属性:
# 训练后模型属性
model.rank_
#2
# 训练前模型无该属性
model1.rank_
根据此前的讨论,我们知道,实现线性回归参数计算的方法有很多种,我们可以通过最小二乘法进行一步到位的参数求解,同时也能够通过梯度下降进行迭代求解,而sklearn是采用哪种方式进行求解的呢?需要知道的是,这个问题其实至关重要,它不仅影响了sklearn中该算法的执行计算效率,同时也决定了该算法的很多建模特性,例如,如果是采用最小二乘法进行的参数求解,则面临特征矩阵拥有多重共线性时,计算结果将变得不再可靠。而我们对任何一个算法工具的掌握,都不能仅仅停留在“能够跑出结果”这个层面。
要详细了解训练过程的参数求解方法,就需要回到官网中查阅评估器的相关说明。而LinearRegression评估器的相关说明,在sklearn官网说明的六大板块(稍后会进行详细介绍)中的Regression板块中。
在该模块的1.1.1.Ordinary Least Squares中,就是关于LinearRegression评估器的相关说明。从标题就能看出,sklearn中是通过普通最小二乘法来执行的线性方程参数求解。接下来详细介绍关于sklearn中算法解释部分的内容排布。首先,对于任何一个评估器(算法模型),说明文档会先介绍算法的基础原理、算法公式(往往就是损失函数计算表达式)以及一个简单的例子,必要时还会补充算法提出的相关论文链接,带领用户快速入门。
紧接着,说明文档会对算法的某些特性进行探讨(往往都是在使用过程中需要注意的问题),例如对于普通最小二乘法,最大的问题还是在于特征矩阵出现严重多重共线性时,预测结果会出现较大的误差。然后,说明文档会例举一个该算法的完整使用过程,也就是穿插在说明文档中的example。再然后,说明文档会讨论几个在模型使用过程中经常会比较关注的点,对于线性回归,此处列举了两个常见问题,其一是非负最小二乘如何实现,以及最小二乘法的计算复杂度。对于上述问题,有如下解释。首先是关于非负最小二乘法,其实本质上就是约束线性方程建模结果中所有参数取值都为正数,以满足某些需求场景;另外关于最小二乘法的复杂度,根据上述说明不难看出,最小二乘法计算复杂度为 O ( n s a m p l e s n f e a t u r e s 2 ) O(n_{samples}n^2_{features}) O(nsamplesnfeatures2)。
不难看出,sklearn官网说明文档非常细致并且非常完整,如果稍加对比,相比目前流行的深度学习框架或者分布式计算框架,sklearn的说明文档可以说是内容最详细、布局最合理、对初学者用户最友好的官网没有之一,甚至在早些年,市面上大多数介绍sklearn的书,其实“灵感”来源都是sklearn官网。因此,如果要推荐关于sklearn的参考资料的话,首先也是力推sklearn官网。
不过,若要完全参照sklearn进行学习,还是会面临一些“问题”。首先是API查询与检索的问题,尽管sklearn官网对所有的评估器进行了六大类的分类、并且将所有的API进行了整理并提供了索引的入口,但对于大多数初学者来说,如何快速的找到所需要的评估器和函数,仍然还是一个亟待解决的问题。对此,我们将在下一小节进行关于Scikit-Learn的内容分布于查找的相关介绍。此外,由于sklearn非常完整,包含了目前大多数机器学习算法和几乎全部经典机器学习算法,这也导致sklearn中尽管看起来算法种类繁多,但并不是所有算法都有非常广泛的用途,如果是围绕sklearn进行算法学习,需要有选择的进行针对性学习;其三,尽管sklearn包含了算法的损失函数和一些基本原理,但限于篇幅,其实sklearn的算法解释文档并未对算法的基本原理进行详细介绍,若要深入原理层面进行学习,则还需要额外补充学习材料;其四,当然也是尤其需要注意的一点,sklearn为了内置接口的统一性和运算的高效性,很多算法其实都是在原机器学习算法上进行了微调,也就是sklearn的实现过程和原始算法的设计流程略微存在区别,这些区别会在后续算法内容学习中逐渐接触到。
不过无论如何,作为一个算法工具迅速定位和查找我们所需的模型(评估器)和函数、以及其他相关内容,都是掌握这门工具之必须,接下来我们就围绕sklearn官网的内容布局进行介绍。
首先,从建模功能上进行区分,sklearn将所有的评估器和函数功能分为六大类,分别是分类模型(Classification)、回归模型(Regression)、聚类模型(Clustering)、降维方法(Dimensionality reduction)、模型选择(Model selection)和数据预处理六大类。
其中分类模型、回归模型和聚类模型是机器学习内主流的三大类模型,其功能实现主要依靠评估器类,并且前两者是有监督学习、聚类模型属于无监督学习范畴。当然,sklearn中并未包含关联规则相关算法,如Apriori或者FP-Growth,这其实一定程度上和sklearn只能处理array-like类型对象有关。而后三者,降维方法、模型选择方法和数据预处理方法,则多为辅助建模的相关方法,并且既有评估器也有实用函数。
值得一提的是,上述六个功能模块的划分其实是存在很多交叉的,对于很多模型来说,既能处理分类问题、同时也能处理回归问题,而很多聚类算法同时也可以作为降维方法实用。不过这并不妨碍我们从这些功能入口出发,去寻找我们需要的评估器或实用函数。例如线性回归对用评估器可从Regression进入进行查找,而对用模型评估指标,由于评估指标最终是指导进行模型选择的,因此模型评估指标计算的实用函数的查找应该从Model selection入口进入,并且在3.3 Metrics and scoring: quantifying the quality of predictions内。
此外,我们可以在最上方的User Guide一栏进入sklearn所有内容的合集页面,其中包含了sklearn的所有内容按照使用顺序进行的排序。如果点击左上方的Other versions,则可以下载sklearn所有版本的User Guide的PDF版本。
如果想根据评估器或实用函数的名字去查找相关API说明文档,则可以点击最上方的API一栏进入到根据二极模块首字母排序的API查询文档中。其中二级模块指的是类似包含线性回归的linear_model模块或者包含MSE的metrics模块。
阅读开源算法框架的源码,其实是很多高阶算法工程师自我提升的必经之路。尽管sklearn中出于代码运行速度考虑,有部分算法是用cython重写了,但目前大多数代码都在朝着代码可读性和易用性方向发展(降低协作门槛),因此大部分模块的代码还是相对不难读懂的。
不过在初中级阶段、尤其是以调用评估器建模为主的情况下,还是应以熟练掌握常用评估器和实用函数、以及其背后的实现原理为核心进行学习。因此对大多数小伙伴来说,并不推荐在当前阶段并不推荐进行源码阅读。
以上就是关于sklearn官网的整体内容布局介绍,接下来,我们将继续围绕调库建模这一目标,进一步探索与尝试使用更多的sklearn中的相关功能。
在对sklearn整体情况有了一定的了解之后,接下来我们来介绍sklearn中机器学习建模过程常用的一些功能。
# 科学计算模块
import numpy as np
import pandas as pd
# 绘图模块
import matplotlib as mpl
import matplotlib.pyplot as plt
# 自定义模块
from ML_basic_function import *
接下来,我们进一步构建功能实现更加完整与复杂的建模过程,并练习使用更多的sklearn中的相关功能。
sklearn提供了非常多的内置数据集,并且还提供了一些创建数据集的方法。
sklearn中的数据集相关功能都在datasets模块下,我们可以通过API文档中的datasets模块所包含的内容对所有的数据集和创建数据集的方法进行概览。不难发现,sklearn中提供了结构化数据集(如经典的鸢尾花数据集、波士顿房价数据集、乳腺癌数据集等),同时也提供了一些如图片数据、文本数据等数据集,可以使用load函数来进行读取;此外,sklearn中还提供了许多能够创建不同数据分布的数据生成器(用make函数创建),和我们此前定义的数据生成器类似,都是可以用于创建测试评估器性能的数据生成器。
首先是鸢尾花数据的读取,我们可借助load_iris来进行数据的读取。简单读取方法如下:
from sklearn.datasets import load_iris
iris_data = load_iris()
# 查看读取结果
iris_data
注意,在默认情况下,数据读取结果的类型是Bunch类型,是一个类似字典类型的对象:
type(iris_data)
#sklearn.utils.Bunch
# 返回特征
iris_data.data[:10]
#array([[5.1, 3.5, 1.4, 0.2],
# [4.9, 3. , 1.4, 0.2],
# [4.7, 3.2, 1.3, 0.2],
# [4.6, 3.1, 1.5, 0.2],
# [5. , 3.6, 1.4, 0.2],
# [5.4, 3.9, 1.7, 0.4],
# [4.6, 3.4, 1.4, 0.3],
# [5. , 3.4, 1.5, 0.2],
# [4.4, 2.9, 1.4, 0.2],
# [4.9, 3.1, 1.5, 0.1]])
# 返回标签
iris_data.target[:10]
#array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0])
# 返回各列名称
iris_data.feature_names
#['sepal length (cm)',
# 'sepal width (cm)',
# 'petal length (cm)',
# 'petal width (cm)']
# 返回标签各类别名称
iris_data.target_names[:10]
#array(['setosa', 'versicolor', 'virginica'], dtype='
当然,如果希望只返回特征矩阵和标签数组这两个对象,则可以通过在读取数据集时设置参数return_X_y为True来实现
X, y = load_iris(return_X_y=True)
X[:10]
#array([[5.1, 3.5, 1.4, 0.2],
# [4.9, 3. , 1.4, 0.2],
# [4.7, 3.2, 1.3, 0.2],
# [4.6, 3.1, 1.5, 0.2],
# [5. , 3.6, 1.4, 0.2],
# [5.4, 3.9, 1.7, 0.4],
# [4.6, 3.4, 1.4, 0.3],
# [5. , 3.4, 1.5, 0.2],
# [4.4, 2.9, 1.4, 0.2],
# [4.9, 3.1, 1.5, 0.1]])
y[:10]
#array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0])
而如果想创建DataFrame对象,则可以通过在读取数据集时设置参数as_frame为True来实现
iris_dataFrame = load_iris(as_frame=True)
iris_dataFrame.frame
更多信息,可以通过查阅API或者帮助文档获得。当然不仅鸢尾花数据的读取过程如此,sklearn中其他数据的读取过程也是类似。接下来,我们借助上述创建的X和y带入进行后续建模。
在sklearn中,我们可以通过调用train_test_split
函数来完成数据集切分,当然数据集切分的目的是为了更好的进行模型性能评估,而更好的进行模型性能评估则是为了更好的进行模型挑选,因此train_test_split函数实际上是在model_selection模块下。
from sklearn.model_selection import train_test_split
该函数和此前我们定义的数据集切分函数在功能和使用上都基本一致,我们可以直接通过查阅该函数的帮助文档来了解核心信息:
# 查阅该函数的帮助文档
train_test_split?
此处有两个地方需要注意,其一是随机数种子的设置,和此前手动定义的数据集切分函数一样,random_state取值不同,切分结果就会各有不同:
X = np.arange(12).reshape((6, 2))
X
y = np.array([0, 0, 0, 1, 1, 1])
train_test_split(X, y, random_state=42)
#[array([[10, 11],
# [ 4, 5],
# [ 8, 9],
# [ 6, 7]]),
# array([[0, 1],
# [2, 3]]),
# array([1, 0, 1, 1]),
# array([0, 0])]
train_test_split(X, y, random_state=24)
#[array([[2, 3],
# [0, 1],
# [6, 7],
# [4, 5]]),
# array([[ 8, 9],
# [10, 11]]),
# array([0, 0, 1, 0]),
# array([1, 1])]
而stratify
参数则是控制训练集和测试集不同类别样本所占比例的参数,若希望切分后的训练集和测试集中0、1两类的比例和原始数据相同(1:1),则可另stratify=y,则有结果如下:
train_test_split(X, y, stratify=y, random_state=42)
#[array([[ 2, 3],
# [10, 11],
# [ 0, 1],
# [ 8, 9]]),
# array([[6, 7],
# [4, 5]]),
# array([0, 1, 0, 1]),
# array([1, 0])]
值得注意的是,此时尽管随机数种子仍然会发挥作用,但由于计算流程发生了变化,最终切分出来的结果将和此前的切分结果不同(但都会保持(1:1)的分布比例)。
train_test_split(X, y, stratify=y, random_state=24)
#[array([[ 0, 1],
# [10, 11],
# [ 8, 9],
# [ 2, 3]]),
# array([[6, 7],
# [4, 5]]),
# array([0, 1, 1, 0]),
# array([1, 0])]
正如此前介绍的,很多时候我们需要对数据进行归一化处理。而在sklearn中,则包含了非常多关于数据归一化的函数和评估器,接下来我们对其进行逐一介绍,然后从中挑选合适的函数或者评估器带入进行建模。
从功能上划分,sklearn中的归一化其实是分为标准化(Standardization)和归一化(Normalization)两类。其中,此前所介绍的Z-Score标准化和0-1标准化,都属于Standardization的范畴,而在sklearn中,Normalization则特指针对单个样本(一行数据)利用其范数进行放缩的过程。不过二者都属于数据预处理范畴,都在sklearn中的Preprocessing data模块下。
from sklearn import preprocessing
需要注意的是,此前我们介绍数据归一化时有讨论过标准化和归一化名称上的区别,在大多数场景下其实我们并不会对其进行特意的区分,但sklearn中标准化和归一化则各指代一类数据处理方法,此处需要注意。
sklearn的标准化过程,即包括Z-Score标准化,也包括0-1标准化,并且即可以通过实用函数来进行标准化处理,同时也可以利用评估器来执行标准化过程。接下来我们分不同功能以的不同实现形式来进行讨论:
我们可以通过preprocessing
模块下的scale
函数进行快速的Z-Score标准化处理。
preprocessing.scale?
上述函数说明文档并不难懂,接下来我们简单尝试利用该函数进行数据归一化处理。
X = np.arange(9).reshape(3, 3)
X
#array([[0, 1, 2],
# [3, 4, 5],
# [6, 7, 8]])
preprocessing.scale(X)
#array([[-1.22474487, -1.22474487, -1.22474487],
# [ 0. , 0. , 0. ],
# [ 1.22474487, 1.22474487, 1.22474487]])
# 对比此前定义的函数处理结果
z_score(X)
#array([[-1.22474487, -1.22474487, -1.22474487],
# [ 0. , 0. , 0. ],
# [ 1.22474487, 1.22474487, 1.22474487]])
实用函数进行标准化处理,尽管从代码实现角度来看清晰易懂,但却不适用于许多实际的机器学习建模场景。其一是因为在进行数据集的训练集和测试集切分后,我们首先要在训练集进行标准化、然后统计训练集上统计均值和方差再对测试集进行标准化处理,因此其实还需要一个统计训练集相关统计量的过程;其二则是因为相比实用函数,sklearn中的评估器其实会有一个非常便捷的串联的功能,sklearn中提供了Pipeline工具能够对多个评估器进行串联进而组成一个机器学习流,从而简化模型在重复调用时候所需代码量,因此通过评估器的方法进行数据标准化,其实是一种更加通用的选择。
既然是实用评估器进行数据标准化,那就需要遵照评估器的一般使用过程:
首先是评估器导入:
from sklearn.preprocessing import StandardScaler
然后是查阅评估器参数,然后进行评估器的实例化:
# 查阅参数
StandardScaler?
scaler = StandardScaler()
然后导入数据,进行训练,此处也是使用fit函数进行训练:
X = np.arange(15).reshape(5, 3)
X
#array([[ 0, 1, 2],
# [ 3, 4, 5],
# [ 6, 7, 8],
# [ 9, 10, 11],
# [12, 13, 14]])
X_train, X_test = train_test_split(X)
X_train, X_test
#(array([[ 9, 10, 11],
# [ 6, 7, 8],
# [ 0, 1, 2]]),
# array([[12, 13, 14],
# [ 3, 4, 5]]))
scaler.fit(X_train)
#StandardScaler()
虽然同样是输入数据,但标准化的评估器和训练模型的评估器实际上是不同的计算过程。此前我们介绍的线性方程的评估器,输入数据进行训练的过程(fit过程)实际上是计算线性方程的参数,而此处标准化的评估器的训练结果实际上是对输入数据的相关统计量进行了汇总计算,也就是计算了输入数据的均值、标准差等统计量,后续将用这些统计量对各数据进行标准化计算。不过无论计算过程是否相同,评估器最终计算结果都可以通过相关属性进行调用和查看:
# 查看训练数据各列的标准差
scaler.scale_
#array([3.74165739, 3.74165739, 3.74165739])
# 查看训练数据各列的均值
scaler.mean_
#array([5., 6., 7.])
# 查看训练数据各列的方差
scaler.var_
#array([14., 14., 14.])
# 总共有效的训练数据条数
scaler.n_samples_seen_、
#3
当然,截止目前,我们只保留了训练数据的统计量,但尚未对任何数据进行修改,输入的训练数据也是如此
X_train
#array([[ 9, 10, 11],
# [ 6, 7, 8],
# [ 0, 1, 2]])
接下来,我们可以通过评估器中的transform方法来进行数据标准化处理。注意,算法模型的评估器是利用predict方法进行数值预测,而标准化评估器则是利用transform方法进行数据的数值转化。
# 利用训练集的均值和方差对训练集进行标准化处理
scaler.transform(X_train)
#array([[ 1.06904497, 1.06904497, 1.06904497],
# [ 0.26726124, 0.26726124, 0.26726124],
# [-1.33630621, -1.33630621, -1.33630621]])
# 利用训练集的均值和方差对测试集进行标准化处理
scaler.transform(X_test)
#array([[ 1.87082869, 1.87082869, 1.87082869],
# [-0.53452248, -0.53452248, -0.53452248]])
z_score(X_train)
#array([[ 1.06904497, 1.06904497, 1.06904497],
# [ 0.26726124, 0.26726124, 0.26726124],
# [-1.33630621, -1.33630621, -1.33630621]])
此外,我们还可以使用fit_transform对输入数据进行直接转化:
scaler = StandardScaler()
# 一步执行在X_train上fit和transfrom两个操作
scaler.fit_transform(X_train)
#array([[ 1.06904497, 1.06904497, 1.06904497],
# [ 0.26726124, 0.26726124, 0.26726124],
# [-1.33630621, -1.33630621, -1.33630621]])
X_train
#array([[ 9, 10, 11],
# [ 6, 7, 8],
# [ 0, 1, 2]])
scaler.transform(X_test)
#array([[ 1.87082869, 1.87082869, 1.87082869],
# [-0.53452248, -0.53452248, -0.53452248]])
接下来,我们就能直接带入标准化后的数据进行建模了。
和Z-Score标准化类似,0-1标准化也有函数实现和评估器实现两种,先看0-1标准化的函数实现过程:
# 查看函数说明文档
preprocessing.minmax_scale?
X
#array([[ 0, 1, 2],
# [ 3, 4, 5],
# [ 6, 7, 8],
# [ 9, 10, 11],
# [12, 13, 14]])
preprocessing.minmax_scale(X)
#array([[0. , 0. , 0. ],
# [0.25, 0.25, 0.25],
# [0.5 , 0.5 , 0.5 ],
# [0.75, 0.75, 0.75],
# [1. , 1. , 1. ]])
# 对比自定义函数计算结果
maxmin_norm(X)
#array([[0. , 0. , 0. ],
# [0.25, 0.25, 0.25],
# [0.5 , 0.5 , 0.5 ],
# [0.75, 0.75, 0.75],
# [1. , 1. , 1. ]])
类似的,我们可以调用评估器进行0-1标准化。
from sklearn.preprocessing import MinMaxScaler
MinMaxScaler?
scaler = MinMaxScaler()
scaler.fit_transform(X)
#array([[0. , 0. , 0. ],
# [0.25, 0.25, 0.25],
# [0.5 , 0.5 , 0.5 ],
# [0.75, 0.75, 0.75],
# [1. , 1. , 1. ]])
X
#array([[ 0, 1, 2],
# [ 3, 4, 5],
# [ 6, 7, 8],
# [ 9, 10, 11],
# [12, 13, 14]])
scaler.data_min_
#array([0., 1., 2.])
scaler.data_max_
#array([12., 13., 14.])
此外,sklearn中还有针对稀疏矩阵的标准化(MaxAbsScaler)、针对存在异常值点特征矩阵的标准化(RobustScaler)、以及非线性变化的标准化(Non-linear transformation)等方法,相关内容待后续进行介绍。
和标准化不同,sklearn中的归一化特指将单个样本(一行数据)放缩为单位范数(1范数或者2范数为单位范数)的过程,该操作常见于核方法或者衡量样本之间相似性的过程中。这些内容此前我们并未进行介绍,但出于为后续内容做铺垫的考虑,此处先介绍关于归一化的相关方法。同样,归一化也有函数实现和评估器实现两种方法。
先查看函数相关说明文档:
preprocessing.normalize?
在Lesson 3.3中曾解释到关于范数的基本概念,假设向量 x = [ x 1 , x 2 , . . . , x n ] T x = [x_1, x_2, ..., x_n]^T x=[x1,x2,...,xn]T,则向量x的1-范数的基本计算公式为:
∣ ∣ x ∣ ∣ 1 = ∣ x 1 ∣ + ∣ x 2 ∣ + . . . + ∣ x n ∣ ||x||_1 = |x_1|+|x_2|+...+|x_n| ∣∣x∣∣1=∣x1∣+∣x2∣+...+∣xn∣
即各分量的绝对值之和。而向量x的2-范数计算公式为:
∣ ∣ x ∣ ∣ 2 = ( ∣ x 1 ∣ 2 + ∣ x 2 ∣ 2 + . . . + ∣ x n ∣ 2 ) ||x||_2=\sqrt{(|x_1|^2+|x_2|^2+...+|x_n|^2)} ∣∣x∣∣2=(∣x1∣2+∣x2∣2+...+∣xn∣2)
即各分量的平方和再开平方。
而sklearn中的Normalization过程,实际上就是将每一行数据视作一个向量,然后用每一行数据去除以该行数据的1-范数或者2-范数。具体除以哪个范数,以preprocessing.normalize函数中输入的norm参数为准。
X
#array([[ 0, 1, 2],
# [ 3, 4, 5],
# [ 6, 7, 8],
# [ 9, 10, 11],
# [12, 13, 14]])
# 1-范数单位化过程
preprocessing.normalize(X, norm='l1')
#array([[0. , 0.33333333, 0.66666667],
# [0.25 , 0.33333333, 0.41666667],
# [0.28571429, 0.33333333, 0.38095238],
# [0.3 , 0.33333333, 0.36666667],
# [0.30769231, 0.33333333, 0.35897436]])
np.linalg.norm(X, ord=1, axis=1)
#array([ 3., 12., 21., 30., 39.])
np.sum(X, axis=1)
#array([ 3, 12, 21, 30, 39])
X / np.linalg.norm(X, ord=1, axis=1).reshape(5, 1)
#array([[0. , 0.33333333, 0.66666667],
# [0.25 , 0.33333333, 0.41666667],
# [0.28571429, 0.33333333, 0.38095238],
# [0.3 , 0.33333333, 0.36666667],
# [0.30769231, 0.33333333, 0.35897436]])
# 2-范数单位化过程
preprocessing.normalize(X, norm='l2')
#array([[0. , 0.4472136 , 0.89442719],
# [0.42426407, 0.56568542, 0.70710678],
# [0.49153915, 0.57346234, 0.65538554],
# [0.5178918 , 0.57543534, 0.63297887],
# [0.53189065, 0.57621487, 0.62053909]])
np.linalg.norm(X, ord=2, axis=1)
#array([ 2.23606798, 7.07106781, 12.20655562, 17.3781472 , 22.56102835])
np.sqrt(np.sum(np.power(X, 2), axis=1))
#array([ 2.23606798, 7.07106781, 12.20655562, 17.3781472 , 22.56102835])
X / np.linalg.norm(X, ord=2, axis=1).reshape(5, 1)
#array([[0. , 0.4472136 , 0.89442719],
# [0.42426407, 0.56568542, 0.70710678],
# [0.49153915, 0.57346234, 0.65538554],
# [0.5178918 , 0.57543534, 0.63297887],
# [0.53189065, 0.57621487, 0.62053909]])
# 范数单位化结果
np.linalg.norm(preprocessing.normalize(X, norm='l2'), ord=2, axis=1)
#array([1., 1., 1., 1., 1.])
此外,我们也可以通过调用评估器来实现上述过程:
from sklearn.preprocessing import Normalizer
Normalizer?
normlize = Normalizer()
normlize.fit_transform(X)
#array([[0. , 0.4472136 , 0.89442719],
# [0.42426407, 0.56568542, 0.70710678],
# [0.49153915, 0.57346234, 0.65538554],
# [0.5178918 , 0.57543534, 0.63297887],
# [0.53189065, 0.57621487, 0.62053909]])
normlize = Normalizer(norm='l1')
normlize.fit_transform(X)
#array([[0. , 0.33333333, 0.66666667],
# [0.25 , 0.33333333, 0.41666667],
# [0.28571429, 0.33333333, 0.38095238],
# [0.3 , 0.33333333, 0.36666667],
# [0.30769231, 0.33333333, 0.35897436]])
接下来,我们尝试对上述鸢尾花数据进行逻辑回归模型多分类预测,需要注意的是,sklearn中的逻辑回归在默认参数下就支持进行多分类问题判别,并且支持此前介绍的MvM和OvR策略。首先我们先尝试使用逻辑回归评估器进行建模:
# 导入逻辑回归评估器
from sklearn.linear_model import LogisticRegression
# 数据准备
X, y = load_iris(return_X_y=True)
LogisticRegression?
# 实例化模型,使用默认参数
clf_test = LogisticRegression(max_iter=1000, multi_class='multinomial')
此处设置两个参数,一个是最大迭代次数,另一个则是多分类问题时采用MvM策略。更多参数解释将在Lesson 6.3中讨论。
如不设置multi_class参数,其实默认情况下的auto在此时也会选择multinomial策略。该策略也是在模型不受其他约束情况下(如优化方法)时auto会默认选择的策略。
# 带入全部数据进行训练
clf_test.fit(X, y)
#LogisticRegression(max_iter=1000, multi_class='multinomial')
# 查看线性方程系数
clf_test.coef_
#array([[-0.42354204, 0.9673748 , -2.51718519, -1.07940405],
# [ 0.5345048 , -0.32156595, -0.20635727, -0.94439435],
# [-0.11096276, -0.64580885, 2.72354246, 2.02379841]])
# 在全部数据集上进行预测
clf_test.predict(X)[:10]
#array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0])
# 查看概率预测结果
clf_test.predict_proba(X)[:10]
#array([[9.81585264e-01, 1.84147216e-02, 1.44939596e-08],
# [9.71339506e-01, 2.86604639e-02, 3.01840948e-08],
# [9.85278813e-01, 1.47211746e-02, 1.23337373e-08],
# [9.76069526e-01, 2.39304341e-02, 3.96921529e-08],
# [9.85236392e-01, 1.47635957e-02, 1.19995412e-08],
# [9.70226993e-01, 2.97729326e-02, 7.39546647e-08],
# [9.86779074e-01, 1.32209059e-02, 1.99725384e-08],
# [9.76150304e-01, 2.38496683e-02, 2.77243996e-08],
# [9.79633463e-01, 2.03665062e-02, 3.05952963e-08],
# [9.68764573e-01, 3.12353957e-02, 3.17246775e-08]])
上述过程在我们尚未了解逻辑回归评估器细节时、仅仅将其视作一个评估器、并采用评估器通用方法就完成了建模的全过程,足以看出sklearn的易用性。不过需要知道是,sklearn中的逻辑回归实际上是一个使用方法非常多样的模型,我们将在下一小节介绍详细解释逻辑回归模型参数,并借此详细讨论正则化和特征衍生等重要概念。
接下来,我们对模型预测结果进行准确率计算,首先我们可以直接调用评估器的score方法来进行准确率的查看:
clf_test.score(X, y)
#0.9733333333333334
当然,我们也可以在metrics模块中找到准确率计算函数进行准确率计算:
# 进行准确率计算
from sklearn.metrics import accuracy_score
accuracy_score(y, clf_test.predict(X))
#0.9733333333333334
所谓机器学习流,其实就指的是将多个机器学习的步骤串联在一起,形成一个完整的模型训练流程。在sklearn中,我们可以借助其make_pipline类的相关功能来实现,当然需要注意的是,sklearn中只能将评估器类进行串联形成机器学习流,而不能串联实用函数,并且最终串联的结果其实也等价于一个评估器。当然,这也从侧面说明sklearn评估器内部接口的一致性。接下来,我们就利用sklearn中构建机器学习流的方法将上述数据归一化、逻辑回归进行多分类建模等过程串联在一起,并提前进行数据切分,即执行一个更加完整的机器学习建模流程。
from sklearn.pipeline import make_pipeline
make_pipeline?
接下来,可以通过如下方式将模型类进行机器学习流的集成。需要注意的是,只有模型类才能参与构建机器学习流,而实用函数不行。
# 在make_pipeline中输入评估器的过程同时对评估器类进行参数设置
pipe = make_pipeline(StandardScaler(),LogisticRegression(max_iter=1000))
然后进行数据集切分
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=42)
接下来,我们将pipe对象看成是一个完整的模型类(一个可以先执行Z-Score标准化再进行逻辑回归建模的模型),直接使用fit对其进行训练:
pipe.fit(X_train, y_train)
#Pipeline(steps=[('standardscaler', StandardScaler()),
# ('logisticregression', LogisticRegression(max_iter=1000))])
该过程就相当于两个评估器都进行了训练,然后我们即可使用predict方法,利用pipe对数据集进行预测,当然实际过程是先(借助训练数据的统计量)进行归一化,然后再进行逻辑回归模型预测。
pipe.predict(X_test)
#array([1, 0, 2, 1, 1, 0, 1, 2, 1, 1, 2, 0, 0, 0, 0, 1, 2, 1, 1, 2, 0, 2,
# 0, 2, 2, 2, 2, 2, 0, 0, 0, 0, 1, 0, 0, 2, 1, 0])
pipe.score(X_test, y_test)
#1.0
pipe.score(X_train, y_train)
#0.9642857142857143
当模型构建完毕之后,我们即可借助joblib包来进行sklearn的模型存储和读取,相关功能非常简单,我们可以使用dump函数进行模型保存,使用load函数进行模型读取:
import joblib
joblib.dump?
joblib.dump(pipe,'pipe.model')
#['pipe.model']
pipe1 = joblib.load('pipe.model')
pipe1.score(X_train, y_train)
#0.9642857142857143
以上就是关于sklearn建模的常用功能,基于这些功能,在下一小节开始,我们将从逻辑回归出发,讨论关于正则化、过拟合、特征衍生、特征筛选等非常重要的机器学习相关概念。