python:scikit-learn(1),基本概念

《scikit-learn机器学习 第2版》

第1章 机器学习基础

机器学习:通过经验学习知道未来决策
机器学习分为监督学习无监督学习

监督学习:分类类别已知
机器学习的输入称为解释变量输出称为响应变量
组成监督学习经验的实例集合称为训练集,衡量程序性能的实例集合称为测试集
常见的监督机器学习有分类回归
分类的响应变量为离散值,回归的响应变量为连续值
降维:发现对响应变量变化影响最大的特征过程
测试集:用于使用一些衡量标准来评估模型性能
注:选用测试集的策略,不把训练集中的观测值包含在测试集中,如果包含则很难估计算法是真的从训练集中学习到了泛化能力,还是只是简单的记住了训练例子。
过拟合:模型记住了训练数据的程序可预测训练集但无法预测新的例子,那模型对训练集产生记忆称为过拟合。
正则化:应用于模型中减少过拟合
验证集:用来微调被称为超参数的变量,超参数用于控制算法如何从训练数据中学习
所有用于机器学习的数据集中,训练集占50% - 70%,测试集占10% - 25%,余下的则是验证集
交叉验证:用于训练数据缺乏时增加模型训练次数,方法是在同样的数据上训练和验证模型,即数据分为几部分,这几部分数据轮流且不重复的作为训练集和测试集

A B C D E
交叉验证迭代1 测试 训练 训练 训练 训练
交叉验证迭代2 训练 测试 训练 训练 训练
交叉验证迭代3 训练 训练 测试 训练 训练
交叉验证迭代4 训练 训练 训练 测试 训练
交叉验证迭代5 训练 训练 训练 训练 测试

预测误差出现的原因包括模型的偏差方差
偏差表示数据离真实值的远近,方差表示数据的离散和聚合
数据离真实值远称为高偏差,数据离真实值近称为低偏差,数据离散则为高方差,数据聚合则为地方差
高方差模型会过拟合训练数据,高偏差模型会欠拟合训练数据,所以模型会考虑偏差方差权衡

无监督学习:分类类别未知
无监督学习的作用是在数据集内发现互相管理的观测值群体,可以称之为聚类
无监督学习没有误差指标用于衡量,但无监督学习问题的性能指标可以衡量在数据中发现结构的一些属性,例如聚类内部聚类之间距离

python:scikit-learn(1),基本概念_第1张图片
真阳性:true positive(TP)
真阴性:true negative(TN)
假阳性:false positive(FP)
假阴性:false negative(FN)
敏感性:阳性检出率,sensitivity or true positive rate(TPR)
TPR = TP / (TP + FN)
特异性:阴性检出率,specificity or true negative rate(SPC)
SPC = TN / (TN + FP)
精密度:阳性预测值,precision or positive predictive value(PPV)
PPV = TP / (TP + FP)
阴性预测值,negative predictive value(NPV)
NPV = TN / (TN + FN)
假阳性率,false positive rate(FPR)
FPR = FP / (FP + TN) = 1 - SPC
假阴性率,false negative rate(FNR)
FNR = FN / (TP + FN) = 1 - TPR
错误发现率,false discovery rate(FDR)
FDR = FP / (TP + FP) = 1 - PPV
准确率:accuracy(ACC)
ACC = (TP + TN) / (TP + FP + FN + TN)

你可能感兴趣的:(scikit-learn,python,python,scikit-learn)