大数据学习笔记之Spark(八):Spark机器学习解析(一)

文章目录

  • 第1章机器学习概述
  • 第2章机器学习的相关概念
    • 2.1数据集
    • 2.2泛化能力
    • 2.3过拟合和欠拟合
    • 2.4维度、特征
    • 2.5模型
    • 2.6学习
  • 第3章算法常用指标
    • 3.1精确率和召回率
    • 3.2TPR、FPR&TNR
    • 3.3综合评价指标F-measure
    • 3.4ROC曲线、AUC
      • 3.4.1为什么引入ROC曲线?
      • 3.4.2什么是ROC曲线?
      • 3.4.3什么是AUC?
      • 3.4.4怎样计算AUC?
    • 4.1梯度下降
    • 4.2牛顿法
    • 4.3拟牛顿法
    • 4.4BFGS算法
  • 第5章L1、L2正则化
    • 5.1从经验风险最小化到结构经验最小化
    • 5.2范数与正则项
    • 5.3贝叶斯先验
  • 第6章PCA降维
    • 6.1数据降维的必要性
    • 6.2PCA理论推导
      • 6.2.1内积与投影
      • 6.2.2向量的基
      • 6.2.3矩阵的基变换
      • 6.2.4协方差矩阵及优化目标
        • 6.2.4.1 方差
        • 6.2.4.2 协方差
        • 6.2.4.3 协方差矩阵
        • 6.2.4.4 协方差矩阵对角化
    • 6.3算法及实例
      • 6.3.1PCA算法
      • 6.3.2实例
  • 第7章ICA降维
    • 7.1PCA存在的问题
    • 7.2ICA的不确定性
    • 7.3密度函数和线性变换
    • 7.4ICA算法
    • 7.5实例
  • 第8章非平衡数据处理
    • 8.1过采样
    • 8.2欠采样
    • 8.3Informed Understanding
    • 8.4综合采样
  • 第9章模型优化
  • 第10章损失函数
    • 10.1对数损失函数(逻辑回归)
    • 10.2平方损失函数(最小二乘法,Ordinary Least Squares)
    • 10.3指数损失函数(Adaboost)
    • 10.4Hinge损失函数(SVM)
      • 10.4.1Hinge损失函数(SVM)
      • 10.4.2逻辑斯谛回归和SVM的损失函数对比
  • 第11章矩阵奇异值分解SVD
    • 11.1简介
    • 11.2奇异值分解
    • 11.3应用实例
  • 第12章线性回归算法(重点看)
      • 线性回归实例
    • 12.1数学模型
      • 12.2.2目标函数的概率解释
        • 12.2.2.1 中心极限定理
        • 12.2.2.2 高斯分布
        • 12.2.2.3 极大似然估计与损失函数极小化等价
    • 12.3最小二乘法
    • 12.4梯度下降
    • 12.5Spark MLlib实现
  • 第13章逻辑回归算法
    • 13.1逻辑斯谛分布
    • 13.2逻辑回归模型
      • 13.2.1逻辑回归模型表达式
      • 13.2.2理解逻辑回归模型
        • 13.2.2.1 对数几率
        • 13.2.2.2 函数映射
        • 13.2.2.3 概率解释
    • 13.3模型参数估计
      • 13.3.1Sigmoid函数
      • 13.3.2参数估计推导
      • image.png
      • 13.3.3分类边界
    • 13.4延伸
      • 13.4.1生成模型和判别模型
      • 13.4.2多分类
    • 13.5应用
    • 13.6LR与SVM
  • 第14章贝叶斯分类算法
    • 14.1朴素贝叶斯分类算法概述
      • 14.1.1分类问题
      • 14.1.2贝叶斯定理
      • 14.1.3特征条件独立假设
      • 14.1.4朴素贝叶斯分类原理
      • 1.4.2、估计类别下特征属性划分的条件概率及Laplace校准
      • 14.1.5朴素贝叶斯分类算法演示:检测SNS社区中不真实账号
    • 14.2朴素贝叶斯参数估计
      • 14.2.1极大似然估计
      • 14.2.2贝叶斯估计
    • 14.3贝叶斯网络算法概述
      • 14.3.1算法概述
      • 14.3.2应用案例
    • 14.4Spark MLlib算法实现
  • 第15章SVM支持向量机算法
    • 15.1算法思想
      • 15.1.1线性可分
      • 15.1.2线性不可分
      • 15.1.3非线性
  • 第16章决策树算法(重点看下)
    • 16.1决策树
    • 16.2决策树模型的两种解释
      • 16.2.1决策树与if-then规则
      • 16.2.2决策树与条件概率分布
    • 16.3特征选择
      • 16.3.1熵
        • 16.3.1.1 信息量
        • 16.3.1.2 熵
        • 16.3.1.3 条件熵
        • 16.3.1.4 信息增益
        • 16.3.1.5 信息增益比
      • 16.3.2基尼系数
    • 16.4决策树生成
      • 16.4.1ID3算法
      • 16.4.2C4.5算法
      • 16.4.3CART
        • 16.4.3.1 分类树
        • 16.4.3.2 回归树
    • 16.5决策树剪枝
    • 16.6CART剪枝
    • 16.7Spark MLlib案例实现
  • 第17章K近邻算法
    • 17.1算法概述
    • 17.2K近邻模型
      • 17.2.1模型
      • 17.2.2距离度量
      • 17.2.3K值得选择
      • 17.2.4分类决策规则
    • 17.3K紧邻的优缺点
      • 17.3.1优点
      • 17.3.2缺点
  • 第18章聚类算法概述
    • 18.1算法概述
    • 18.2应用场景
      • 18.2.1基于用户位置信息的商业选址
      • 18.2.2搜索引擎查询聚类以进行流量推荐
      • 18.2.3保险投保者分组
      • 18.2.4网站关键词来源聚类整和
  • 第19章KMEANS聚类算法
    • 19.1算法思想
    • 19.2KMEANS算法演示
    • 19.3最邻近算法
      • 19.3.1欧氏距离
      • 19.3.2余弦相似度
    • 19.4K的取值
    • 19.5K的初始位置
    • 19.6Spark MLlib案例实现
  • 第20章EM算法
    • 20.1定义
    • 20.2Jensen不等式
    • 20.3EM思想
      • 20.3.1极大似然估计
      • 20.3.2EM算法思想
    • 20.4EM推导
  • 第21章FPGrowth关联规则算法(重点看下APriori的效率没有FPGrowth高,就不要看了)
    • 21.1算法思想
      • 21.1.2利用FPTree挖掘频繁项集
    • 21.2Spark MLlib案例实现
  • 第22章Apriori关联规则算法
    • 22.1关联分析
      • 22.1.1引言
      • 22.1.2简单关联规则初探
      • 22.1.3简单关联规则的有效性
      • 22.1.4简单关联规则的实用性
    • 22.2Apriori算法
      • 22.2.1简介
      • 22.2.2频繁项集的相关定义
      • 22.2.3寻找频繁项集
      • 22.2.4在最大频繁项集的基础上产生简单关联规则


第1章机器学习概述

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第1张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第2张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第3张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第4张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第5张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第6张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第7张图片

第2章机器学习的相关概念

2.1数据集

一组数据的集合被称作数据集,用于模型训练的数据集叫训练集,用于测试的数据集叫测试集。一个数据集包含多条数据,一条数据包含多个属性。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第8张图片

2.2泛化能力

是指机器学习通过训练集进行模型的训练之后对未知的输入的准确判断能力

2.3过拟合和欠拟合

过拟合是指在利用训练数据进行模型训练的时候,模型过多的依赖训练数据中过多的特征属性。欠拟合是指没有通过训练集达到识别的能力。

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第9张图片

2.4维度、特征

对于西瓜数据集,色泽、根蒂、敲声就是维度,也叫特征值。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第10张图片

2.5模型

模型就是复杂的数学相关函数,只是该函数具有很多的未知的参数,通过训练集训练来确定模型中的参数,生成的已知参数的函数就是模型。

2.6学习

机器学习分为有监督学习和无监督学习,有监督学习是指训练集中有明确的标记,如下数据集:各种特征的西瓜是不是好瓜,有明确的标记。分类就是典型的有监督学习
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第11张图片
无监督学习是指训练集中没有明确的标记,聚类就是典型的无监督学习。

第3章算法常用指标

3.1精确率和召回率

考虑一个二分问题,即将实例分成正类(positive)或负类(negative)。对一个二分问题来说,会出现四种情况。如果一个实例是正类并且也被 预测成正类,即为真正类(True positive),如果实例是负类被预测成正类,称之为假正类(False positive)。相应地,如果实例是负类被预测成负类,称之为真负类(True negative),正类被预测成负类则为假负类(false negative)。
TP:正确肯定的数目;
FN:漏报,没有正确找到的匹配的数目;
FP:误报,给出的匹配是不正确的;
TN:正确拒绝的非匹配对数;
列联表如下表所示,1代表正类,0代表负类:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第12张图片
预测1 预测0
实际1 True Positive(TP) False Negative(FN)
实际0 False Positive(FP) True Negative(TN)
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第13张图片
精确率(正确率)和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。
一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了,两者的定义分别如下:
Precision = 提取出的正确信息条数 / 提取出的信息条数
Recall = 提取出的正确信息条数 / 样本中的信息条数

为了能够评价不同算法的优劣,在Precision和Recall的基础上提出了F1值的概念,来对Precision和Recall进行整体评价。F1的定义如下:
F1值 = 正确率 _ 召回率 _ 2 / (正确率 + 召回率)
不妨举这样一个例子:
某池塘有1400条鲤鱼,300只虾,300只鳖。现在以捕鲤鱼为目的。撒一大网,逮着了700条鲤鱼,200只虾,100只鳖。那么,这些指标分别如下:
  正确率 = 700 / (700 + 200 + 100) = 70%
  召回率 = 700 / 1400 = 50%
  F1值 = 70% _ 50% _ 2 / (70% + 50%) = 58.3%
不妨看看如果把池子里的所有的鲤鱼、虾和鳖都一网打尽,这些指标又有何变化:
  正确率 = 1400 / (1400 + 300 + 300) = 70%
  召回率 = 1400 / 1400 = 100%
  F1值 = 70% _ 100% _ 2 / (70% + 100%) = 82.35%
由此可见,正确率是评估捕获的成果中目标成果所占得比例;召回率,顾名思义,就是从关注领域中,召回目标类别的比例;而F值,则是综合这二者指标的评估指标,用于综合反映整体的指标。
当然希望检索结果Precision越高越好,同时Recall也越高越好,但事实上这两者在某些情况下有矛盾的。比如极端情况下,我们只搜索出了一个结果,且是准确的,那么Precision就是100%,但是Recall就很低;而如果我们把所有结果都返回,那么比如Recall是100%,但是Precision就会很低。因此在不同的场合中需要自己判断希望Precision比较高或是Recall比较高。如果是做实验研究,可以绘制Precision-Recall曲线来帮助分析。

3.2TPR、FPR&TNR

引入两个新名词。其一是真正类率(true positive rate ,TPR), 计算公式为
TPR = TP / (TP + FN)
刻画的是分类器所识别出的 正实例占所有正实例的比例。
另外一个是负正类率(false positive rate, FPR),计算公式为
FPR = FP / (FP + TN)
计算的是分类器错认为正类的负实例占所有负实例的比例。
还有一个真负类率(True Negative Rate,TNR),也称为specificity,计算公式为
TNR = TN /(FP + TN) = 1 - FPR

3.3综合评价指标F-measure

Precision和Recall指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。
F-Measure是Precision和Recall加权调和平均:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第14张图片
当参数α=1时,就是最常见的F1。因此,F1综合了P和R的结果,当F1较高时则能说明试验方法比较有效。

3.4ROC曲线、AUC

3.4.1为什么引入ROC曲线?

Motivation1:在一个二分类模型中,对于所得到的连续结果,假设已确定一个阀值,比如说 0.6,大于这个值的实例划归为正类,小于这个值则划到负类中。如果减小阀值,减到0.5,固然能识别出更多的正类,也就是提高了识别出的正例占所有正例 的比类,即TPR,但同时也将更多的负实例当作了正实例,即提高了FPR。为了形象化这一变化,引入ROC,ROC曲线可以用于评价一个分类器。

Motivation2:在类不平衡的情况下,如正样本90个,负样本10个,直接把所有样本分类为正样本,得到识别率为90%。但这显然是没有意义的。单纯根据Precision和Recall来衡量算法的优劣已经不能表征这种病态问题。

3.4.2什么是ROC曲线?

ROC(Receiver Operating Characteristic)翻译为"接受者操作特性曲线"。曲线由两个变量1-specificity 和 Sensitivity绘制. 1-specificity=FPR,即负正类率。Sensitivity即是真正类率,TPR(True positive rate),反映了正类覆盖程度。这个组合以1-specificity对sensitivity,即是以代价(costs)对收益(benefits)。
此外,ROC曲线还可以用来计算“均值平均精度”(mean average precision),这是当你通过改变阈值来选择最好的结果时所得到的平均精度(PPV)。
  为了更好地理解ROC曲线,我们使用具体的实例来说明:
  如在医学诊断中,判断有病的样本。那么尽量把有病的揪出来是主要任务,也就是第一个指标TPR,要越高越好。而把没病的样本误诊为有病的,也就是第二个指标FPR,要越低越好。
  不难发现,这两个指标之间是相互制约的。如果某个医生对于有病的症状比较敏感,稍微的小症状都判断为有病,那么他的第一个指标应该会很高,但是第二个指标也就相应地变高。最极端的情况下,他把所有的样本都看做有病,那么第一个指标达到1,第二个指标也为1。
  我们以FPR为横轴,TPR为纵轴,得到如下ROC空间。
  我们可以看出,左上角的点(TPR=1,FPR=0),为完美分类,也就是这个医生医术高明,诊断全对。点A(TPR>FPR),医生A的判断大体是正确的。中线上的点B(TPR=FPR),也就是医生B全都是蒙的,蒙对一半,蒙错一半;下半平面的点C(TPR  还是一开始的那幅图,假设如下就是某个医生的诊断统计图,直线代表阈值。我们遍历所有的阈值,能够在ROC平面上得到如下的ROC曲线。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第15张图片
  曲线距离左上角越近,证明分类器效果越好。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第16张图片
  如上,是三条ROC曲线,在0.23处取一条直线。那么,在同样的低FPR=0.23的情况下,红色分类器得到更高的PTR。也就表明,ROC越往上,分类器效果越好。我们用一个标量值AUC来量化它。

3.4.3什么是AUC?

AUC值为ROC曲线所覆盖的区域面积,显然,AUC越大,分类器分类效果越好。
  AUC = 1,是完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器。
  0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。
  AUC的物理意义:假设分类器的输出是样本属于正类的socre(置信度),则AUC的物理意义为,任取一对(正、负)样本,正样本的score大于负样本的score的概率。

3.4.4怎样计算AUC?

第一种方法:AUC为ROC曲线下的面积,那我们直接计算面积可得。面积为一个个小的梯形面积之和。计算的精度与阈值的精度有关。
  第二种方法:根据AUC的物理意义,我们计算正样本score大于负样本的score的概率。取N_M(N为正样本数,M为负样本数)个二元组,比较score,最后得到AUC。时间复杂度为O(N_M)。
  第三种方法:与第二种方法相似,直接计算正样本score大于负样本的概率。我们首先把所有样本按照score排序,依次用rank表示他们,如最大score的样本,rank=n(n=N+M),其次为n-1。那么对于正样本中rank最大的样本,rank_max,有M-1个其他正样本比他score小,那么就有(rank_max-1)-(M-1)个负样本比他score小。其次为(rank_second-1)-(M-2)。最后我们得到正样本大于负样本的概率为
时间复杂度为O(N+M)。
MSE: Mean Squared Error
均方误差是指参数估计值与参数真值之差平方的期望值;
MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第17张图片
RMSE
均方误差:均方根误差是均方误差的算术平方根
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第18张图片
MAE :Mean Absolute Error
平均绝对误差是绝对误差的平均值
平均绝对误差能更好地反映预测值误差的实际情况.
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第19张图片
fi表示预测值,yi表示真实值;
SD :standard Deviation
标准差:标准差是方差的算术平方根。标准差能反映一个数据集的离散程度。平均数相同的两组组数据,标准差未必相同。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第20张图片

第4章凸优化算法
不严格的说,凸优化就是在标准优化问题的范畴内,要求目标函数和约束函数是凸函数的一类优化问题。

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第21张图片
注意:中国大陆数学界某些机构关于函数凹凸性定义和国外的定义是相反的。Convex Function在某些中国大陆的数学书中指凹函数。Concave Function指凸函数。但在中国大陆涉及经济学的很多书中,凹凸性的提法和其他国家的提法是一致的,也就是和数学教材是反的。举个例子,同济大学高等数学教材对函数的凹凸性定义与本条目相反,本条目的凹凸性是指其上方图是凹集或凸集,而同济大学高等数学教材则是指其下方图是凹集或凸集,两者定义正好相反。

4.1梯度下降

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第22张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第23张图片

4.2牛顿法

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第24张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第25张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第26张图片

4.3拟牛顿法

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第27张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第28张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第29张图片

4.4BFGS算法

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第30张图片

第5章L1、L2正则化

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第31张图片

5.1从经验风险最小化到结构经验最小化

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第32张图片

5.2范数与正则项

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第33张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第34张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第35张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第36张图片

5.3贝叶斯先验

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第37张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第38张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第39张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第40张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第41张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第42张图片
image.png
image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第43张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第44张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第45张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第46张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第47张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第48张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第49张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第50张图片

第6章PCA降维

6.1数据降维的必要性

PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。
一般情况下,在数据挖掘和机器学习中,数据被表示为向量。例如某个淘宝店2012年全年的流量及交易情况可以看成一组记录的集合,其中每一天的数据是一条记录,格式如下:
(日期, 浏览量, 访客数, 下单数, 成交数, 成交金额)
其中“日期”是一个记录标志而非度量值,而数据挖掘关心的大多是度量值,因此如果我们忽略日期这个字段后,我们得到一组记录,每条记录可以被表示为一个五维向量,其中一条看起来大约是这个样子:
image.png
我们当然可以对这一组五维向量进行分析和挖掘,不过我们知道,很多机器学习算法的复杂度和数据的维数有着密切关系,甚至与维数呈指数级关联。当然,这里区区五维的数据,也许还无所谓,但是实际机器学习中处理成千上万甚至几十万维的情况也并不罕见,在这种情况下,机器学习的资源消耗是不可接受的,因此我们必须对数据进行降维。
降维当然意味着信息的丢失,不过鉴于实际数据本身常常存在的相关性,我们可以想办法在降维的同时将信息的损失尽量降低。
举个例子,假如某学籍数据有两列M和F,其中M列的取值是如何此学生为男性取值1,为女性取值0;而F列是学生为女性取值1,男性取值0。此时如果我们统计全部学籍数据,会发现对于任何一条记录来说,当M为1时F必定为0,反之当M为0时F必定为1。在这种情况下,我们将M或F去掉实际上没有任何信息的损失,因为只要保留一列就可以完全还原另一列。
上面是一个极端的情况,在现实中也许不会出现,不过类似的情况还是很常见的。例如上面淘宝店铺的数据,从经验我们可以知道,“浏览量”和“访客数”往往具有较强的相关关系,而“下单数”和“成交数”也具有较强的相关关系。这里我们非正式的使用“相关关系”这个词,可以直观理解为“当某一天这个店铺的浏览量较高(或较低)时,我们应该很大程度上认为这天的访客数也较高(或较低)”。这种情况表明,如果我们删除浏览量或访客数其中一个指标,我们应该期待并不会丢失太多信息。因此我们可以删除一个,以降低机器学习算法的复杂度。
总之,我们需要降维来提高学习的效率以及防止学习过拟合的问题。那么
问题是我们到底删除哪一列损失的信息才最小?亦或根本不是单纯删除几列,而是通过某些变换将原始数据变为更少的列但又使得丢失的信息最小?到底如何度量丢失信息的多少?如何根据原始数据决定具体的降维操作步骤?

6.2PCA理论推导

既然我们面对的数据被抽象为一组向量,那么下面有必要研究一些向量的数学性质。而这些数学性质将成为后续导出PCA的理论基础。

6.2.1内积与投影

下面先来看一个向量运算:内积。两个维数相同的向量的内积被定义为:
image.png

内积运算将两个向量映射为一个实数。其计算方式非常容易理解,但是其意义并不明显。下面我们分析内积的几何意义。假设A和B是两个n维向量,我们知道n维向量可以等价表示为n维空间中的一条从原点发射的有向线段,为了简单起见我们假设A和B均为二维向量,则image.pngimage.png。则在二维平面上A和B可以用两条发自原点的有向线段表示,见下图:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第51张图片

现在我们从A点向B所在直线引一条垂线。我们知道垂线与B的交点叫做A在B上的投影,再设A与B的夹角是a,则投影的矢量长度为image.png,其中image.png是向量A的模,也就是A线段的标量长度。
注意这里我们专门区分了矢量长度和标量长度,标量长度总是大于等于0,值就是线段的长度;而矢量长度可能为负,其绝对值是线段长度,而符号取决于其方向与标准方向相同或相反。
到这里还是看不出内积和这东西有什么关系,不过如果我们将内积表示为另一种我们熟悉的形式:
image.png
A与B的内积等于A到B的投影长度乘以B的模。再进一步,如果我们假设B的模为1,即让|B|=1,那么就变成了:
image.png
也就是说,设向量B的模为1,则A与B的内积值等于A向B所在直线投影的矢量长度!这就是内积的一种几何解释,也是我们得到的第一个重要结论。

6.2.2向量的基

一个二维向量可以对应二维笛卡尔直角坐标系中从原点出发的一个有向线段。例如下面这个向量:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第52张图片
在代数表示方面,我们经常用线段终点的点坐标表示向量,例如上面的向量可以表示为(3,2)。
不过我们常常忽略,只有一个(3,2)本身是不能够精确表示一个向量的。我们仔细看一下,这里的3实际表示的是向量在x轴上的投影值是3,在y轴上的投影值是2。也就是说我们其实隐式引入了一个定义:以x轴和y轴上正方向长度为1的向量为标准。那么一个向量(3,2)实际是说在x轴投影为3而y轴的投影为2。注意投影是一个矢量,所以可以为负。
更正式的说,向量(x,y)实际上表示线性组合:
image.png
不难证明所有二维向量都可以表示为这样的线性组合。此处(1,0)和(0,1)叫做二维空间中的一组基。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第53张图片
所以,要准确描述向量,首先要确定一组基,然后给出在基所在的各个直线上的投影值,就可以了。只不过我们经常省略第一步,而默认以(1,0)和(0,1)为基。
我们之所以默认选择(1,0)和(0,1)为基,当然是比较方便,因为它们分别是x和y轴正方向上的单位向量,因此就使得二维平面上点坐标和向量一一对应,非常方便。但实际上任何两个线性无关的二维向量都可以成为一组基,所谓线性无关在二维平面内可以直观认为是两个不在一条直线上的向量。
例如,(1,1)和(-1,1)也可以成为一组基。一般来说,我们希望基的模是1,因为从内积的意义可以看到,如果基的模是1,那么就可以方便的用向量点乘基而直接获得其在新基上的坐标了!实际上,对应任何一个向量我们总可以找到其同方向上模为1的向量,只要让两个分量分别除以模就好了。例如,上面的基可以变为image.png
现在,我们想获得(3,2)在新基上的坐标,即在两个方向上的投影矢量值,那么根据内积的几何意义,我们只要分别计算(3,2)和两个基的内积,不难得到新的坐标为image.png。下图给出了新的基以及(3,2)在新基上坐标值的示意图:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第54张图片
另外这里要注意的是,我们列举的例子中基是正交的(即内积为0,或直观说相互垂直),但可以成为一组基的唯一要求就是线性无关,非正交的基也是可以的。不过因为正交基有较好的性质,所以一般使用的基都是正交的。

6.2.3矩阵的基变换

下面我们找一种简便的方式来表示基变换。还是拿上面的例子,想一下,将(3,2)变换为新基上的坐标,就是用(3,2)与第一个基做内积运算,作为第一个新的坐标分量,然后用(3,2)与第二个基做内积运算,作为第二个新坐标的分量。实际上,我们可以用矩阵相乘的形式简洁的表示这个变换:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第55张图片
其中矩阵的两行分别为两个基,乘以原向量,其结果刚好为新基的坐标。可以稍微推广一下,如果我们有m个二维向量,只要将二维向量按列排成一个两行m列矩阵,然后用“基矩阵”乘以这个矩阵,就得到了所有这些向量在新基下的值。例如(1,1),(2,2),(3,3),想变换到刚才那组基上,则可以这样表示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第56张图片
于是一组向量的基变换被干净的表示为矩阵的相乘。
一般的,如果我们有M个N维向量,想将其变换为由R个N维向量表示的新空间中,那么首先将R个基按行组成矩阵A,然后将向量按列组成矩阵B,那么两矩阵的乘积AB就是变换结果,其中AB的第m列为A中第m列变换后的结果。
数学表示为:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第57张图片
其中是一个image.png行向量,表示第i个基,image.png是一个列向量,表示第j个原始数据记录。
特别要注意的是,这里R可以小于N,而R决定了变换后数据的维数。也就是说,我们可以将一N维数据变换到更低维度的空间中去,变换后的维度取决于基的数量。因此这种矩阵相乘的表示也可以表示降维变换。
最后,上述分析同时给矩阵相乘找到了一种物理解释:两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去。更抽象的说,一个矩阵可以表示一种线性变换。很多同学在学线性代数时对矩阵相乘的方法感到奇怪,但是如果明白了矩阵相乘的物理意义,其合理性就一目了然了。

6.2.4协方差矩阵及优化目标

如果基的数量少于向量本身的维数,则可以达到降维的效果。但是我们还没有回答一个最最关键的问题:如何选择基才是最优的。或者说,如果我们有一组N维向量,现在要将其降到K维(K小于N),那么我们应该如何选择K个基才能最大程度保留原有的信息?
假设我们的数据由五条记录组成,将它们表示成矩阵形式:
image.png
其中每一列为一条数据记录,而一行为一个字段。为了后续处理方便,我们首先将每个字段内所有值都减去字段均值,其结果是将每个字段都变为均值为0(这样做的道理和好处后面会看到)。
我们看上面的数据,第一个字段均值为2,第二个字段均值为3,所以变换后:大数据学习笔记之Spark(八):Spark机器学习解析(一)_第58张图片

我们可以看下五条数据在平面直角坐标系内的样子:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第59张图片
问题来了:如果我们必须使用一维来表示这些数据,又希望尽量保留原始的信息,你要如何选择?
通过上一节对基变换的讨论我们知道,这个问题实际上是要在二维平面中选择一个方向,将所有数据都投影到这个方向所在直线上,用投影值表示原始记录。这是一个实际的二维降到一维的问题。
那么如何选择这个方向(或者说基)才能尽量保留最多的原始信息呢?一种直观的看法是:希望投影后的投影值尽可能分散。
以上图为例,可以看出如果向x轴投影,那么最左边的两个点会重叠在一起,中间的两个点也会重叠在一起,于是本身四个各不相同的二维点投影后只剩下两个不同的值了,这是一种严重的信息丢失,同理,如果向y轴投影最上面的两个点和分布在x轴上的两个点也会重叠。所以看来x和y轴都不是最好的投影选择。我们直观目测,如果向通过第一象限和第三象限的斜线投影,则五个点在投影后还是可以区分的。
下面,我们用数学方法表述这个问题。

6.2.4.1 方差

上文说到,我们希望投影后投影值尽可能分散,而这种分散程度,可以用数学上的方差来表述。此处,一个字段的方差可以看做是每个元素与字段均值的差的平方和的均值,即:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第60张图片
由于上面我们已经将每个字段的均值都化为0了,因此方差可以直接用每个元素的平方和除以元素个数表示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第61张图片
于是上面的问题被形式化表述为:寻找一个一维基,使得所有数据变换为这个基上的坐标表示后,方差值最大。

6.2.4.2 协方差

对于上面二维降成一维的问题来说,找到那个使得方差最大的方向就可以了。不过对于更高维,还有一个问题需要解决。考虑三维降到二维问题。与之前相同,首先我们希望找到一个方向使得投影后方差最大,这样就完成了第一个方向的选择,继而我们选择第二个投影方向。
如果我们还是单纯只选择方差最大的方向,很明显,这个方向与第一个方向应该是“几乎重合在一起”,显然这样的维度是没有用的,因此,应该有其他约束条件。从直观上说,让两个字段尽可能表示更多的原始信息,我们是不希望它们之间存在(线性)相关性的,因为相关性意味着两个字段不是完全独立,必然存在重复表示的信息。
数学上可以用两个字段的协方差表示其相关性,由于已经让每个字段均值为0,则:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第62张图片
可以看到,在字段均值为0的情况下,两个字段的协方差简洁的表示为其内积除以元素数m。
当协方差为0时,表示两个字段完全独立。为了让协方差为0,我们选择第二个基时只能在与第一个基正交的方向上选择。因此最终选择的两个方向一定是正交的。
至此,我们得到了降维问题的优化目标:将一组N维向量降为K维(K大于0,小于N),其目标是选择K个单位(模为1)正交基,使得原始数据变换到这组基上后,各字段两两间协方差为0,而字段的方差则尽可能大(在正交的约束下,取最大的K个方差)。

6.2.4.3 协方差矩阵

上面我们导出了优化目标,但是这个目标似乎不能直接作为操作指南(或者说算法),因为它只说要什么,但根本没有说怎么做。所以我们要继续在数学上研究计算方案。
我们看到,最终要达到的目的与字段内方差及字段间协方差有密切关系。因此我们希望能将两者统一表示,仔细观察发现,两者均可以表示为内积的形式,而内积又与矩阵相乘密切相关。于是我们来了灵感:
假设我们只有a和b两个字段,那么我们将它们按行组成矩阵X:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第63张图片
然后我们用X乘以X的转置,并乘上系数1/m:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第64张图片

奇迹出现了!这个矩阵对角线上的两个元素分别是两个字段的方差,而其它元素是a和b的协方差。两者被统一到了一个矩阵的。
根据矩阵相乘的运算法则,这个结论很容易被推广到一般情况:
设我们有m个n维数据记录,将其按列排成n乘m的矩阵X,设C=1mXX?C=1mXXT,则C是一个对称矩阵,其对角线分别个各个字段的方差,而第i行j列和j行i列元素相同,表示i和j两个字段的协方差。

6.2.4.4 协方差矩阵对角化

根据上述推导,我们发现要达到优化目前,等价于将协方差矩阵对角化:即除对角线外的其它元素化为0,并且在对角线上将元素按大小从上到下排列,这样我们就达到了优化目的。这样说可能还不是很明晰,我们进一步看下原矩阵与基变换后矩阵协方差矩阵的关系:
设原始数据矩阵X对应的协方差矩阵为C,而P是一组基按行组成的矩阵,设Y=PX,则Y为X对P做基变换后的数据。设Y的协方差矩阵为D,我们推导一下D与C的关系:
image.png
现在事情很明白了!我们要找的P不是别的,而是能让原始协方差矩阵对角化的P。换句话说,优化目标变成了寻找一个矩阵P,满足PCP?PCPT是一个对角矩阵,并且对角元素按从大到小依次排列,那么P的前K行就是要寻找的基,用P的前K行组成的矩阵乘以X就使得X从N维降到了K维并满足上述优化条件。
现在所有焦点都聚焦在了协方差矩阵对角化问题上,由上文知道,协方差矩阵C是一个是对称矩阵,在线性代数上,实对称矩阵有一系列非常好的性质:
1)实对称矩阵不同特征值对应的特征向量必然正交。
2)设特征向量λλ重数为r,则必然存在r个线性无关的特征向量对应于λλ,因此可以将这r个特征向量单位正交化。
由上面两条可知,一个n行n列的实对称矩阵一定可以找到n个单位正交特征向量,设这n个特征向量为image.png,我们将其按列组成矩阵:
image.png
则对协方差矩阵C有如下结论:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第65张图片
其中ΛΛ为对角矩阵,其对角元素为各特征向量对应的特征值(可能有重复)。
到这里,我们发现我们已经找到了需要的矩阵P:
image.png
P是协方差矩阵的特征向量单位化后按行排列出的矩阵,其中每一行都是C的一个特征向量。如果设P按照ΛΛ中特征值的从大到小,将特征向量从上到下排列,则用P的前K行组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y。

6.3算法及实例

6.3.1PCA算法

总结一下PCA的算法步骤:
设有m条n维数据。
1)将原始数据按列组成n行m列矩阵X
2)将X的每一行(代表一个属性字段)进行零均值化,即减去这一行的均值
3)求出协方差矩阵image.png
4)求出协方差矩阵的特征值及对应的特征向量
5)将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P
6)Y=PX即为降维到k维后的数据

6.3.2实例

这里以上文提到的
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第66张图片
为例,我们用PCA方法将这组二维数据其降到一维。
因为这个矩阵的每行已经是零均值,这里我们直接求协方差矩阵:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第67张图片
然后求其特征值和特征向量,具体求解方法不再详述,可以参考相关资料。求解后特征值为:
image.png
其对应的特征向量分别是:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第68张图片
其中对应的特征向量分别是一个通解,c1c1和c2c2可取任意实数。那么标准化后的特征向量为:
image.png
因此我们的矩阵P是:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第69张图片
可以验证协方差矩阵C的对角化:
image.png
最后我们用P的第一行乘以数据矩阵,就得到了降维后的表示:
image.png
降维投影结果如下图:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第70张图片

第7章ICA降维

7.1PCA存在的问题

上面提到的PCA是一种数据降维的方法,但是只对符合高斯分布的样本点比较有效,那么对于其他分布的样本,有没有主元分解的方法呢?

比如经典的鸡尾酒宴会问题(cocktail party problem)。假设在party中有n个人,他们可以同时说话,我们也在房间中一些角落里共放置了n个声音接收器(Microphone)用来记录声音。宴会过后,我们从n个麦克风中得到了一组数据image.png,i表示采样的时间顺序,也就是说共得到了m组采样,每一组采样都是n维的。我们的目标是单单从这m组采样数据中分辨出每个人说话的信号。
将第二个问题细化一下,有n个信号源image.pngimage.png,每一维都是一个人的声音信号,每个人发出的声音信号独立。A是一个未知的混合矩阵(mixing matrix),用来组合叠加信号s,那么
image.png
x的意义在上文解释过,这里的x不是一个向量,是一个矩阵。其中每个列向量是image.png
表示成图就是
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第71张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第72张图片
image.png的每个分量都由image.png的分量线性表示。A和s都是未知的,x是已知的,我们要想办法根据x来推出s。这个过程也称作为盲信号分离。

image.png,那么image.png
将W表示成
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第73张图片
其中image.png,其实就是将image.png写成行向量形式。那么得到:
image.png

7.2ICA的不确定性

由于w和s都不确定,那么在没有先验知识的情况下,无法同时确定这两个相关参数。比如上面的公式s=wx。当w扩大两倍时,s只需要同时扩大两倍即可,等式仍然满足,因此无法得到唯一的s。同时如果将人的编号打乱,变成另外一个顺序,如上图的蓝色节点的编号变为3,2,1,那么只需要调换A的列向量顺序即可,因此也无法单独确定s。这两种情况称为原信号不确定。
还有一种ICA不适用的情况,那就是信号不能是高斯分布的。假设只有两个人发出的声音信号符合多值正态分布,image.png,I是2*2的单位矩阵,s的概率密度函数就不用说了吧,以均值0为中心,投影面是椭圆的山峰状(参见多值高斯分布)。因为image.png,因此,x也是高斯分布的,均值为0,协方差为image.png
令R是正交阵image.pngimage.png。如果将A替换成A’。那么image.png。s分布没变,因此x’仍然是均值为0,协方差image.png
因此,不管混合矩阵是A还是A’,x的分布情况是一样的,那么就无法确定混合矩阵,也就无法确定原信号。

7.3密度函数和线性变换

在讨论ICA具体算法之前,我们先来回顾一下概率和线性代数里的知识。
假设我们的随机变量s有概率密度函数image.png(连续值是概率密度函数,离散值是概率)。为了简单,我们再假设s是实数,还有一个随机变量x=As,A和x都是实数。令image.png是x的概率密度,那么怎么求image.png
image.png,首先将式子变换成image.png,然后得到image.png,求解完毕。可惜这种方法是错误的。比如s符合均匀分布的话(image.png),那么s的概率密度是image.png,现在令A=2,即x=2s,也就是说x在[0,2]上均匀分布,可知image.png。然而,前面的推导会得到image.png。正确的公式应该是image.png
推导方法
image.png
image.png
更一般地,如果s是向量,A可逆的方阵,那么上式子仍然成立。

7.4ICA算法

ICA算法归功于Bell和Sejnowski,这里使用最大似然估计来解释算法,原始的论文中使用的是一个复杂的方法Infomax principal。
我们假定每个有概率密度,那么给定时刻原信号的联合分布就是image.png
这个公式代表一个假设前提:每个人发出的声音信号各自独立。有了p(s),我们可以求得p(x)image.png
左边是每个采样信号x(n维向量)的概率,右边是每个原信号概率的乘积的|W|倍。
前面提到过,如果没有先验知识,我们无法求得W和s。因此我们需要知道image.png,我们打算选取一个概率密度函数赋给s,但是我们不能选取高斯分布的密度函数。在概率论里我们知道密度函数p(x)由累计分布函数(cdf)F(x)求导得到。F(x)要满足两个性质是:单调递增和在[0,1]。我们发现sigmoid函数很适合,定义域负无穷到正无穷,值域0到1,缓慢递增。我们假定s的累积分布函数符合sigmoid函数image.png
求导后image.png
这就是s的密度函数。这里s是实数。
如果我们预先知道s的分布函数,那就不用假设了,但是在缺失的情况下,sigmoid函数能够在大多数问题上取得不错的效果。由于上式中image.png是个对称函数,因此E[s]=0(s的均值为0),那么E[x]=E[As]=0,x的均值也是0。
知道了image.png,就剩下W了。给定采样后的训练样本image.png,样本对数似然估计如下:
使用前面得到的x的概率密度函数,得image.png
大括号里面是image.png
接下来就是对W求导了,这里牵涉一个问题是对行列式|W|进行求导的方法,属于矩阵微积分。这里先给出结果,在文章最后再给出推导公式。image.png
最终得到的求导后公式如下,的导数为(可以自己验证):大数据学习笔记之Spark(八):Spark机器学习解析(一)_第74张图片
其中image.png是梯度上升速率,人为指定。
当迭代求出W后,便可得到image.png来还原出原始信号。
注意:我们计算最大似然估计时,假设了image.pngimage.png之间是独立的,然而对于语音信号或者其他具有时间连续依赖特性(比如温度)上,这个假设不能成立。但是在数据足够多时,假设独立对效果影响不大,同时如果事先打乱样例,并运行随机梯度上升算法,那么能够加快收敛速度。
回顾一下鸡尾酒宴会问题,s是人发出的信号,是连续值,不同时间点的s不同,每个人发出的信号之间独立(image.pngimage.png之间独立)。s的累计概率分布函数是sigmoid函数,但是所有人发出声音信号都符合这个分布。A(W的逆阵)代表了s相对于x的位置变化,x是s和A变化后的结果。

7.5实例

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第75张图片
s=2时的原始信号
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第76张图片
观察到的x信号
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第77张图片
使用ICA还原后的s信号
对行列式求导,设矩阵A是n×n的,我们知道行列式与代数余子式有关,image.png
是去掉第i行第j列后的余子式,那么对求导得
image.png
adj(A)跟我们线性代数中学的是一个意思,因此
image.png

第8章非平衡数据处理

8.1过采样

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第78张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第79张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第80张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第81张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第82张图片

8.2欠采样

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第83张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第84张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第85张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第86张图片

8.3Informed Understanding

image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第87张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第88张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第89张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第90张图片image.png

8.4综合采样

image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第91张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第92张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第93张图片

第9章模型优化

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第94张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第95张图片image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第96张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第97张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第98张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第99张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第100张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第101张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第102张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第103张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第104张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第105张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第106张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第107张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第108张图片

第10章损失函数

image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第109张图片

10.1对数损失函数(逻辑回归)

image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第110张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第111张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第112张图片image.pngimage.png

10.2平方损失函数(最小二乘法,Ordinary Least Squares)

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第113张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第114张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第115张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第116张图片

10.3指数损失函数(Adaboost)

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第117张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第118张图片

10.4Hinge损失函数(SVM)

10.4.1Hinge损失函数(SVM)

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第119张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第120张图片image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第121张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第122张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第123张图片

10.4.2逻辑斯谛回归和SVM的损失函数对比

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第124张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第125张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第126张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第127张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第128张图片

第11章矩阵奇异值分解SVD

11.1简介

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第129张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第130张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第131张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第132张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第133张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第134张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第135张图片

11.2奇异值分解

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第136张图片image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第137张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第138张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第139张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第140张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第141张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第142张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第143张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第144张图片

11.3应用实例

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第145张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第146张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第147张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第148张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第149张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第150张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第151张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第152张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第153张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第154张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第155张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第156张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第157张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第158张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第159张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第160张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第161张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第162张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第163张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第164张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第165张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第166张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第167张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第168张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第169张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第170张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第171张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第172张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第173张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第174张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第175张图片

第12章线性回归算法(重点看)

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第176张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第177张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第178张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第179张图片
ps:这里的ε是罗马数字,念epsilon,方便到百度查询。

y(i)是最后的真实值,o(T)x(i)是最后的预测值,e(i)是误差 这里写的可能不是很标准,你懂我的意思的。
想要让误差最小,那么就让p(ε(i))概率值,最小。所以直接把他代入了标准正态分布的概率密度函数里面 。
极大似然估计:让y发生的概率最大
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第180张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第181张图片
这里注意在国际上和国内的凸函数的定义是相反的,国内是往上的口,国际上是相反的吗,如上图就是国际上的。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第182张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第183张图片
最小二乘法就是求导,让导数等于0,最后求导
但是注意XtX不可逆的话不能使用,因为上面的结果中有XtX

为什么spark适合机器学习?因为梯度下降发用了很多迭代
跟上面的求导不一样,这里求函数的最小值,这里最后求的其实是一个二维的曲面,但是不知道这个曲面的最小值是哪,其实肉眼看得话,最小值是
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第184张图片
梯度下降法,更像一个人去下山,一个人下山,不知道整个山的地图,但是要下山,是不是应该环顾四周下,然后看看哪个是往下走的。ok,找到一个下降的路径,然后走一段时间,这段时间叫做步长,比如走了五十米,走完这五十米之后再看看,然后再找一个坡度最陡的,往下走相应的步长,然后再找一个坡度最陡的,一直走,会一直用到上面的结果,最后转到最顶点,如何判断到打了最后的顶点?一直重复前面的过程,发现自己怎么走都一直是这个高度,高度已经不变了,一直回到了原点,就说已经收敛了,这个时候的值,就把Θ 的参数矩阵求出来了。

在梯度下降中有两种:批量梯度下降算法、随机梯度下降算法
得知道等高线上,哪一块下降最快,挑一个最大值,批量是因为需要把所有的数据全部都看一遍
随机梯度下降是就在附近找一下,不把全部的数据都看一下,只在附近找一下,一直往下走,一直找。

初始化Θ,随机的,如果正好随机到最底部,那么你是幸运的。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第185张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第186张图片

线性回归实例

相关代码保存在了github:[email protected]:dataiyangu/source_code_to_learn.git

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第187张图片
如图,如果用Mlib的话,需要加入Mlib这个包

这个是数据,最前边的叫lable(标签),后面的1:2:3:一直到后面的10:,这个叫做十个属性,特征,也可以叫十维。
一行就是一条数据,所以需要在一条数据里面通过这些样本,要把这个函数求出来,然后去预测数来。
当然了这个样本太少,才五百个,不足以说明任何问题、

看下代码。
屏蔽日志,还有创建sparkcontext,把名称和master的地址传过去,然后加载样本

在spark Mlib中有一个工具类MLUtils.loadLibSVMFile,里面只需要传入sparkcontext和数据文件即可,然后返回一个RDD[LablePoint]

这个类型就是一个case类,这个类中的第一个属性label就是他的标签,第二个属性features是一个Vector,是一个集合,在这个集合里面把所有的属性传进去了。
当然了如果传入的数据不是我们上面的那种格式的话,用它会报错。
为了解释loadLibSVMFile,做了什么呢?

把一行通过空格分隔,new一个实例叫做LabeledPoint,把第一个部分和tail(就是除了第一个后面的数据),每一个做了一个拆分,然后要了第二个部分即1:2:3:,:后面的东西,把这些东西传给vector这些方法,然后就产生了Vector的数据,这个方法和上面的MLUtils.loadLibSVMFile是等价的,即loadLibSVMFile里面其实写的就是上面的map里面的东西。

接着往下走

LinearRegressionWithSGD线性回归,SGD就是梯度下降法,需要传入参数,迭代次数和步长,然后就得到了模型,然后就开始评估了,即通过后面的属性,看看前面的是不是一样,point就是labelPoint,这个模型有一个方法叫做predict,预测然后把freatures传进去,得到label,然后打印数据中的真实值,和预测值,然后把真实值和预测值返回一个元组

然后打印出军方误差,然后将这个模型保存,不能说训练了半天的模型,然后把idea一关闭掉就没有了,这样不是很亏。下面通过对应的模型得到的新的模型和上面保存之前的模型是一样的
运行程序。


发现大部分都是不准的,因为样本太少了,不足以预测的特别准确,然后最后的误差也挺大的。
但是过程也是这样的。

其实发现机器学习也没有想的那么可怕,就是明白了算法,然后直接调用已经写好的api,如果没有这样的api,就需要自己写了。

12.1数学模型

线性回归是利用被称为线性回归方程的最小平方函数对一个或者多个自变量和因变量之间关系进行建模的一种回归分析。这种函数式一个或者多个被称为回归系数的模型参数的线性组合。
在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。
回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。
下面我们来举例何为一元线性回归分析,图1为某地区的房屋面积(feet)与价格( ) 的 一 个 数 据 集 , 在 该 数 据 集 中 , 只 有 一 个 自 变 量 面 积 ( f e e t ) , 和 一 个 因 变 量 价 格 ( )的一个数据集,在该数据集中,只有一个自变量面积(feet),和一个因变量价格( )(feet)(),所以我们可以将数据集呈现在二维空间上,如图2所示。利用该数据集,我们的目的是训练一个线性方程,无限逼近所有数据点,然后利用该方程与给定的某一自变量(本例中为面积),可以预测因变量(本例中为房价)。本例中,训练所得的线性方程如图3所示。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第188张图片
图1、房价与面积对应数据集
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第189张图片

图2、二维空间上的房价与面积对应图
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第190张图片
图3、线性逼近
同时,分析得到的线性方程为:
image.png
接下来还是该案例,举一个多元线性回归的例子。如果增添了一个自变量:房间数,那么数据集可以如下所示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第191张图片
图4、房价与面积、房间数对应数据集
那么,分析得到的线性方程应如下所示:
image.png
因此,无论是一元线性方程还是多元线性方程,可统一写成如下的格式:
image.png
上式中x0=1,而求线性方程则演变成了求方程的参数ΘT。
线性回归假设特征和结果满足线性关系。其实线性关系的表达能力非常强大,每个特征对结果的影响强弱可以有前面的参数体现,而且每个特征变量可以首先映射到一个函数,然后再参与线性计算,这样就可以表达特征与结果之间的非线性关系。
12.2损失函数
12.2.1损失函数
上面的公式的参数向量θ是n+1维的,每个参数的取值是实数集合,也就是说参数向量θ在n+1维实数空间中取值结果有无穷种可能。
那么,如何利用一个规则或机制帮助我们评估求得的参数θ,并且使得线性模型效果最佳呢?直观地认为,如果求得参数θ线性求和后,得到的结果image.png与真实值yy之差越小越好。
这时我们需要映入一个函数image.png来衡量表示真实值y好坏的程度,该函数称为损失函数(loss function,也称为错误函数)。数学表示如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第192张图片
这个损失函数用的是image.png的预测值image.png与真实值image.png之差的平方和。如果不考虑诸如过拟合等其他问题,这就是我们需要优化的目标函数。

12.2.2目标函数的概率解释

一般地,机器学习中不同的模型会有相应的目标函数。而回归模型(尤其是线性回归类)的目标函数通常用平方损失函数来作为优化的目标函数(即真实值与预测值之差的平方和)。为什么要选用误差平方和作为目标函数呢?答案可以从概率论中的中心极限定理、高斯分布等知识中找到。

12.2.2.1 中心极限定理

目标函数的概率解释需要用到中心极限定理。中心极限定理本身就是研究独立随机变量和的极限分布为正态分布的问题。
中心极限定理的公式表示为:
设n个随机变量X1,X2,···,Xn相互独立,均具有相同的数学期望与方差,即image.png,令image.png为随机变量之和,有
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第193张图片
称随机变量Zn为n个随机变量X1,X2,···,Xn的规范和。
它的定义为:
设从均值为μ、方差为σ2(有限)的任意一个总体中抽取样本量为n的样本,当n充分大时,样本均值的抽样分布image.png近似服从于均值为μ、方差为σ2的正态分布。

12.2.2.2 高斯分布

假设给定一个输入样例image.png根据公式得到预测值image.png与真实值image.png之间存在误差,即为image.png。那么,它们之间的关系表示如下:image.png
而这里假设误差image.png服从标准高斯分布是合理的。
解释如下:
回归模型的最终目标是通过函数表达式建立自变量x与结果y之间的关系,希望通过x能较为准确地表示结果y。而在实际的应用场合中,很难甚至不可能把导致y的所有变量(特征)都找出来,并放到回归模型中。那么模型中存在的x通常认为是影响结果y最主要的变量集合(又称为因子,在ML中称为特征集)。根据中心极限定理,把那些对结果影响比较小的变量(假设独立同分布)之和认为服从正态分布是合理的。
可以用一个示例来说明误差服从高斯分布是合理的:
在例子中,根据训练数据建立房屋的面积x与房屋的售价y之间的函数表达。它的数据集把房屋面积作为最为主要的变量。除此之外我们还知道房屋所在的地段(地铁、学区、城区、郊区),周边交通状况,当地房价、楼层、采光、绿化面积等等诸多因素会影响房价。
实际上,因数据收集问题可能拿不到所有影响房屋售价的变量,可以假设多个因素变量相互独立,根据中心极限定理,认为变量之和服从高斯分布。即:
image.png
那么x和y的条件概率可表示为:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第194张图片

12.2.2.3 极大似然估计与损失函数极小化等价

根据上述公式估计得到一条样本的结果概率,模型的最终目标是希望在全部样本上预测最准,也就是概率积最大,这个概率积就是似然函数。优化的目标函数即为似然函数,表示如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第195张图片
对L(x)取对数,可得对数似然函数:
image.png
由于n,σ都为常数,因此上式等价于
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第196张图片
我们可以发现,经过最大似然估计推导出来的待优化的目标函数与平方损失函数是等价的。因此可以得出结论:
线性回归误差平方损失极小化与极大似然估计等价。其实在概率模型中,目标函数的原函数(或对偶函数)极小化(或极大化)与极大似然估计等价,这是一个带有普遍性的结论。比如在最大熵模型中,有对偶函数极大化与极大似然估计等价的结论。
那上面为什么是条件概率p(y|x;θ)呢?因为我们希望预测值与真实值更接近,这就意味着希望求出来的参数θ,在给定输入x的情况下,得到的预测值等于真实值得可能性越大越好。而θ,x均为前提条件,因此用条件概率p(y|x;θ) 表示。即p(y|x;θ) 越大,越能说明估计的越准确。当然也不能一味地只有该条件函数,还要考虑拟合过度以及模型的泛化能力问题。

12.3最小二乘法

通过观察或者求二阶导数可知,image.png是一个凸函数,
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第197张图片
将m个n维样本组成矩阵X:
image.png
则目标函数的矩阵形式为
image.png
凸函数有最小值,即导数为0,
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第198张图片
令其为零,求得驻点:
image.png
若XTX不可逆,不可使用
实际中,若XTX阶过高,仍然需要使用梯度下降的方式计算数值解。

12.4梯度下降

我们可以将函数最小值求解想象成下山操作。
一个在山顶的人的下山逻辑:
1、找到下山最快的坡度
2、沿着这个坡度走一段距离a。
3、重复1、2步骤,直到到山底
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第199张图片
梯度下降一般分为批量梯度下降算法和随机梯度下降算法。
不同点在于重新选择梯度方向的时候,是否计算所有的样本集。

梯度下降算法的描述如下:
1)初始化θ(随机初始化)
2)迭代,新的θ能够使得J(θ)更小
3)如果J(θ)能够继续减少不收敛,返回2)
4)α称为学习率

收敛条件:J(θ)不再变化、或者变化小于某个阈值
每一次迭代,改变值如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第200张图片
针对于更新值,批量梯度下降算法如下:算法复杂度O(mn)
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第201张图片
可以看出,参数θ的值每更新一次都要遍历样本集中的所有的样本,得到新的θj,看是否满足阈值要求,若满足,则迭代结束,根据此值就可以得到;否则继续迭代。注意到,虽然梯度下降法易受到极小值的影响,但是一般的线性规划问题只有一个极小值,所以梯度下降法一般可以收敛到全局的最小值。例如,J是二次凸函数,则梯度下降法的示意图为:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第202张图片
图中,一圈上表示目标函数的函数值类似于地理上的等高线,从外圈开始逐渐迭代,最终收敛全局最小值。

随机梯度下降算法如下表示:算法复杂度O(n)
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第203张图片
在这个算法中,我们每次更新只用到一个训练样本,若根据当前严格不能进行迭代得到一个,此时会得到一个,有新样本进来之后,在此基础上继续迭代,又得到一组新的和,以此类推。
批量梯度下降法,每更新一次,需要用到样本集中的所有样本;随机梯度下降法,每更新一次,只用到训练集中的一个训练样本,所以一般来说,随机梯度下降法能更快地使目标函数达到最小值(新样本的加入,随机梯度下降法有可能会使目标函数突然变大,迭代过程中在变小。所以是在全局最小值附近徘徊,但对于实际应用俩说,误差完全能满足要求)。另外,对于批量梯度下降法,如果样本集增加了一些训练样本,就要重新开始迭代。由于以上原因,当训练样本集较大时,一般使用随机梯度下降法。

下降的梯度即为导数的负数:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第204张图片
一个很重要的地方值得注意的是,梯度是有方向的,对于一个向量θ,每一维分量θi都可以求出一个梯度的方向,我们就可以找到一个整体的方向,在变化的时候,我们就朝着下降最多的方向进行变化就可以达到一个最小点,不管他是全局的还是局部的。

在对目标函数J(θ)求偏导时,可以用更简单的数学语言(倒三角表示梯度)进行描述:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第205张图片

12.5Spark MLlib实现

第13章逻辑回归算法

13.1逻辑斯谛分布

介绍逻辑斯谛回归模型之前,首先看一个并不常见的概率分布,即逻辑斯谛分布。设X是连续随机变量,X服从逻辑斯谛分布是指X具有下列的分布函数和密度函数:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第206张图片
式中,μ为位置参数,γ>0为形状参数。逻辑斯谛的分布的密度函数f(x)和分布函数F(x)的图形如下图所示。其中分布函数属于逻辑斯谛函数,其图形为一条S形曲线。该曲线以点(μ,1/2)为中心对称,即满足
image.png
曲线在中心附近增长较快,在两端增长速度较慢。形状参数γ的值越小,曲线在中心附近增长得越快。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第207张图片

13.2逻辑回归模型

线性回归的应用场合大多是回归分析,一般不用在分类问题上。原因可以概括为以下两个:
1)回归模型是连续型模型,即预测出的值都是连续值(实数值),非离散值;
2)预测结果受样本噪声的影响比较大。

13.2.1逻辑回归模型表达式

LR模型表达式为参数化的逻辑斯谛函数(默认参数μ=0,γ=1),即
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第208张图片
其中image.png作为事件结果y=1的概率取值。这里,image.png ,y∈{1,0}, image.png 是权值向量。其中权值向量w中包含偏置项,即image.png

13.2.2理解逻辑回归模型

13.2.2.1 对数几率

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第209张图片

13.2.2.2 函数映射

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第210张图片

13.2.2.3 概率解释

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第211张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第212张图片

13.3模型参数估计

13.3.1Sigmoid函数

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第213张图片
image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第214张图片

以下的推导中会用到,带来了很大的便利。

13.3.2参数估计推导

image.png

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第215张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第216张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第217张图片

13.3.3分类边界

image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第218张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第219张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第220张图片

13.4延伸

13.4.1生成模型和判别模型

image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第221张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第222张图片

13.4.2多分类

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第223张图片

image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第224张图片

13.5应用

image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第225张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第226张图片

13.6LR与SVM

第14章贝叶斯分类算法

14.1朴素贝叶斯分类算法概述

14.1.1分类问题

贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。
对于分类问题,其实谁都不会陌生,说我们每个人每天都在执行分类操作一点都不夸张,只是我们没有意识到罢了。例如,当你看到一个陌生人,你的脑子下意识判断TA是男是女;你可能经常会走在路上对身旁的朋友说“这个人一看就很有钱、那边有个非主流”之类的话,其实这就是一种分类操作。
从数学角度来说,分类问题可做如下定义:
已知集合image.pngimage.png和,确定映射规则image.png,使得任意image.png有且仅有一个使得image.png成立。其中C叫做类别集合,其中每一个元素是一个类别,而I叫做项集合,其中每一个元素是一个待分类项,f叫做分类器。分类算法的任务就是构造分类器f。
这里要着重强调,分类问题往往采用经验性方法构造映射规则,即一般情况下的分类问题缺少足够的信息来构造100%正确的映射规则,而是通过对经验数据的学习从而实现一定概率意义上正确的分类,因此所训练出的分类器并不是一定能将每个待分类项准确映射到其分类,分类器的质量与分类器构造方法、待分类数据的特性以及训练样本数量等诸多因素有关。
例如,医生对病人进行诊断就是一个典型的分类过程,任何一个医生都无法直接看到病人的病情,只能观察病人表现出的症状和各种化验检测数据来推断病情,这时医生就好比一个分类器,而这个医生诊断的准确率,与他当初受到的教育方式(构造方法)、病人的症状是否突出(待分类数据的特性)以及医生的经验多少(训练样本数量)都有密切关系。

14.1.2贝叶斯定理

贝叶斯定理是所有贝叶斯分类算法的核心:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。这里先解释什么是条件概率:
image.png表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。其基本求解公式为:image.png
贝叶斯定理之所以有用,是因为我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。
下面不加证明地直接给出贝叶斯定理:
image.png
条件概率的乘法定理如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第227张图片
全概率公式如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第228张图片
贝叶斯公式如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第229张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第230张图片

14.1.3特征条件独立假设

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第231张图片image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第232张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第233张图片

14.1.4朴素贝叶斯分类原理

朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。通俗来说,就好比这么个道理,你在街上看到一个黑人,我问你你猜这哥们哪里来的,你十有八九猜非洲。为什么呢?因为黑人中非洲人的比率最高,当然人家也可能是美洲人或亚洲人,但在没有其它可用信息下,我们会选择条件概率最大的类别,这就是朴素贝叶斯的思想基础。
朴素贝叶斯分类的正式定义如下:
1、设image.png为一个待分类项,而每个a为x的一个特征属性。
2、有类别集合image.png
3、计算image.png
4、如果image.png,则image.png
那么现在的关键就是如何计算第3步中的各个条件概率。我们可以这么做:
1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。
2、统计得到在各类别下各个特征属性的条件概率估计。即image.png

3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导:image.png
因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。又因为各特征属性是条件独立的,所以有:
image.png
根据上述分析,朴素贝叶斯分类的流程可以由下图表示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第234张图片
可以看到,整个朴素贝叶斯分类分为三个阶段:
第一阶段——准备工作阶段,这个阶段的任务是为朴素贝叶斯分类做必要的准备,主要工作是根据具体情况确定特征属性,并对每个特征属性进行适当划分,然后由人工对一部分待分类项进行分类,形成训练样本集合。这一阶段的输入是所有待分类数据,输出是特征属性和训练样本。这一阶段是整个朴素贝叶斯分类中唯一需要人工完成的阶段,其质量对整个过程将有重要影响,分类器的质量很大程度上由特征属性、特征属性划分及训练样本质量决定。
第二阶段——分类器训练阶段,这个阶段的任务就是生成分类器,主要工作是计算每个类别在训练样本中的出现频率及每个特征属性划分对每个类别的条件概率估计,并将结果记录。其输入是特征属性和训练样本,输出是分类器。这一阶段是机械性阶段,根据前面讨论的公式可以由程序自动计算完成。
第三阶段——应用阶段。这个阶段的任务是使用分类器对待分类项进行分类,其输入是分类器和待分类项,输出是待分类项与类别的映射关系。这一阶段也是机械性阶段,由程序完成。

1.4.2、估计类别下特征属性划分的条件概率及Laplace校准

这一节讨论P(a|y)的估计。
由上面看出,计算各个划分的条件概率P(a|y)是朴素贝叶斯分类的关键性步骤,当特征属性为离散值时,只要很方便的统计训练样本中各个划分在每个类别中出现的频率即可用来估计P(a|y),下面重点讨论特征属性是连续值的情况。
当特征属性为连续值时,通常假定其值服从高斯分布(也称正态分布)。即概率函数如下:image.png
image.png

因此只要计算出训练样本中各个类别中此特征项划分的各均值和标准差,代入上述公式即可得到需要的估计值。均值与标准差的计算在此不再赘述。
另一个需要讨论的问题就是当P(a|y)=0怎么办,当某个类别下某个特征项划分没有出现时,就是产生这种现象,这会令分类器质量大大降低。为了解决这个问题,我们引入Laplace校准,它的思想非常简单,就是对没类别下所有划分的计数加1,这样如果训练样本集数量充分大时,并不会对结果产生影响,并且解决了上述频率为0的尴尬局面。

14.1.5朴素贝叶斯分类算法演示:检测SNS社区中不真实账号

这个问题是这样的,对于SNS(社交网络)社区来说,不真实账号(使用虚假身份或用户的小号)是一个普遍存在的问题,作为SNS社区的运营商,希望可以检测出这些不真实账号,从而在一些运营分析报告中避免这些账号的干扰,亦可以加强对SNS社区的了解与监管。
如果通过纯人工检测,需要耗费大量的人力,效率也十分低下,如能引入自动检测机制,必将大大提升工作效率。这个问题说白了,就是要将社区中所有账号在真实账号和不真实账号两个类别上进行分类,下面我们一步一步实现这个过程。
首先设C=0表示真实账号,C=1表示不真实账号。
1、确定特征属性及划分
这一步要找出可以帮助我们区分真实账号与不真实账号的特征属性,在实际应用中,特征属性的数量是很多的,划分也会比较细致,但这里为了简单起见,我们用少量的特征属性以及较粗的划分,并对数据做了修改。
我们选择三个特征属性:a1:日志数量/注册天数,a2:好友数量/注册天数,a3:是否使用真实头像。在SNS社区中这三项都是可以直接从数据库里得到或计算出来的。
下面给出划分:a1:{a<=0.05, 0.05=0.2},a1:{a<=0.1, 0.1=0.8},a3:{a=0(不是),a=1(是)}。
2、获取训练样本
假设这里使用运维人员曾经人工检测过的1万个账号作为训练样本。
3、计算训练样本中每个类别的频率
用训练样本中真实账号和不真实账号数量分别除以一万,得到:
image.png
image.png
4、计算每个类别条件下各个特征属性划分的频率
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
5、使用分类器进行鉴别
下面我们使用上面训练得到的分类器鉴别一个账号,这个账号使用非真实头像,日志数量与注册天数的比率为0.1,好友数与注册天数的比率为0.2。
image.png
image.png
可以看到,虽然这个用户没有使用真实头像,但是通过分类器的鉴别,更倾向于将此账号归入真实账号类别。这个例子也展示了当特征属性充分多时,朴素贝叶斯分类对个别属性的抗干扰性。
关于对分类器的评价,首先要定义,分类器的正确率指分类器正确分类的项目占所有被分类项目的比率。
通常使用回归测试来评估分类器的准确率,最简单的方法是用构造完成的分类器对训练数据进行分类,然后根据结果给出正确率评估。但这不是一个好方法,因为使用训练数据作为检测数据有可能因为过分拟合而导致结果过于乐观,所以一种更好的方法是在构造初期将训练数据一分为二,用一部分构造分类器,然后用另一部分检测分类器的准确率。

14.2朴素贝叶斯参数估计

14.2.1极大似然估计

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第235张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第236张图片image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第237张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第238张图片

14.2.2贝叶斯估计

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第239张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第240张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第241张图片

14.3贝叶斯网络算法概述

14.3.1算法概述

朴素贝叶斯分类有一个限制条件,就是特征属性必须有条件独立或基本独立(实际上在现实应用中几乎不可能做到完全独立)。当这个条件成立时,朴素贝叶斯分类法的准确率是最高的,但不幸的是,现实中各个特征属性间往往并不条件独立,而是具有较强的相关性,这样就限制了朴素贝叶斯分类的能力。
贝叶斯网络(Bayesian network),又称信念网络(Belief Network),或有向无环图模型(directed acyclic graphical model),是一种概率图模型,于1985年由Judea Pearl首先提出。它是一种模拟人类推理过程中因果关系的不确定性处理模型,其网络拓朴结构是一个有向无环图(DAG)。
贝叶斯网络的有向无环图中的节点表示随机变量image.png,它们可以是可观察到的变量,或隐变量、未知参数等。认为有因果关系(或非条件独立)的变量或命题则用箭头来连接(换言之,连接两个节点的箭头代表此两个随机变量是具有因果关系,或非条件独立)。若两个节点间以一个单箭头连接在一起,表示其中一个节点是“因(parents)”,另一个是“果(children)”,两节点就会产生一个条件概率值。
例如,假设节点E直接影响到节点H,即E→H,则用从E指向H的箭头建立结点E到结点H的有向弧(E,H),权值(即连接强度)用条件概率P(H|E)来表示,如下图所示:
image.png
简言之,把某个研究系统中涉及的随机变量,根据是否条件独立绘制在一个有向图中,就形成了贝叶斯网络。其主要用来描述随机变量之间的条件依赖,用圈表示随机变量(random variables),用箭头表示条件依赖(conditional dependencies)。
令G = (I,E)表示一个有向无环图(DAG),其中I代表图形中所有的节点的集合,而E代表有向连接线段的集合,且令X = (Xi)i ∈ I为其有向无环图中的某一节点i所代表的随机变量,若节点X的联合概率可以表示成:
image.png
则称X为相对于一有向无环图G 的贝叶斯网络,其中image.png,表示节点i之“因”,或称pa(i)是i的parents(父母)。
此外,对于任意的随机变量,其联合概率可由各自的局部条件概率分布相乘而得出:
image.png
如下图所示,便是一个简单的贝叶斯网络:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第242张图片
从图上可以比较直观的看出:

  1. x1,x2,…x7的联合分布为image.png
  2. x1和x2独立(对应head-to-head);
  3. x6和x7在x4给定的条件下独立(对应tail-to-tail)。

    根据上图,第1点可能很容易理解,但第2、3点中所述的条件独立是啥意思呢?其实第2、3点是贝叶斯网络中3种结构形式中的其中二种。为了说清楚这个问题,需要引入D-Separation(D-分离)这个概念。

    D-Separation是一种用来判断变量是否条件独立的图形化方法。换言之,对于一个DAG(有向无环图)E,D-Separation方法可以快速的判断出两个节点之间是否是条件独立的。贝叶斯网络有三种链接结构:

    形式1:head-to-head

    贝叶斯网络的第一种结构形式如下图所示:

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第243张图片
所以有:P(a,b,c) = P(a)_P(b)_P(c|a,b)成立,化简后可得:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第244张图片
即在c未知的条件下,a、b被阻断(blocked),是独立的,称之为head-to-head条件独立。
形式2:tail-to-tail
贝叶斯网络的第二种结构形式如下图所示
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第245张图片
有P(a,b,c)=P©_P(a|c)_P(b|c),则:P(a,b|c)=P(a,b,c)/P©,然后将P(a,b,c)=P©_P(a|c)_P(b|c)带入上式,得到:P(a,b|c)=P(a|c)*P(b|c)。
即在c给定的条件下,a,b被阻断(blocked),是独立的,称之为tail-to-tail条件独立,对应本节中最开始那张图中的“x6和x7在x4给定的条件下独立”。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第246张图片
形式3:head-to-tail
贝叶斯网络的第三种结构形式如下图所示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第247张图片
有:P(a,b,c)=P(a)_P(c|a)_P(b|c)。
化简后可得:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第248张图片
即:在c给定的条件下,a,b被阻断(blocked),是独立的,称之为head-to-tail条件独立。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第249张图片

14.3.2应用案例

胸部疾病诊所(Chest Clinic)
假想你是Los Angeles一名新毕业的医生,专攻肺部疾病。你决定建立一个胸部疾病诊所,主治肺病及相关疾病。大学课本已经中告诉你了肺癌、肺结核和支气管炎的发生比率以及这些疾病典型的临床症状、病因等,于是你就可以根据课本里的理论知识建立自己的Bayes网。如根据如下数据信息:
美国有30%的人吸烟.
每10万人中就就有70人患有肺癌.
每10万人中就就有10人患有肺结核.
每10万人中就就有800人患有支气管炎.
10%人存在呼吸困难症状, 大部分人是哮喘、支气管炎和其他非肺结核、非肺癌性疾病引起.
根据上面的数据可以建立如下BN模型:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第250张图片
这样的一个BN模型对你意义不大,因为它没有用到来你诊所病人的案例数据,不能反映真实病人的情况。当诊所诊治了数千病人后,会发现课本中所描述的北美的情况与实际诊所数据显示的情况是完全不同的,实际诊所数据显示:
 50%的病人吸烟.
 1%患有肺结核.
 5.5% 得了肺癌.
 45% 患有不同程度支气管炎.
将这些新数据输入到BN模型中,才真正的获得了对你有意义的实用BN模型:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第251张图片
现在,看看如何在日常诊断中用该BN模型。
 首先,应该注意到,上述模型反映了一个来诊所求医的新患者,为诊断之前我们没有这个患者的任何信息。而当我们向患者咨询信息时,BN网中的概率就会自动调整,这就是贝叶斯推理最完美、强大之处。贝叶斯网络最强大之处在于从每个阶段结果所获得的概率都是数学与科学的反映,换句话说,假设我们了解了患者的足够信息,根据这些信息获得统计知识,网络就会告诉我们合理的推断。
现在看看如何增加个别病人信息调节概率。一个女病人进入诊所,我们开始和她谈论。她告诉我们她呼吸困难。我们将这个信息输入到网络。我们相信病人的信息,认为其存在100%呼吸困难。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第252张图片
可以观察到,一旦病人有呼吸困难症状,三种疾病的概率都增大了,因为这些疾病都有呼吸困难的症状。我们的病人存在这样的症状,某种程度上我们会推断这三种疾病可能性比较大,也增加了我们患者有严重疾病认识的信念。

 仔细看看推断的过程:
明显增大的是支气管炎,从 45% 到 83.4%. 为什么会有如此大的增长呢?因为支气管炎病比癌症和肺结核更常见. 只要我们相信患者有严重的肺部疾病,那最支气管炎的可能性会更大些。
病人是抽烟者的几率也会随之增大,从50% 到63.4%.
近期访问过亚洲的几率也会增大: 从1% 到1.03%, 显然是不重要的.
X光照片不正常的几率也会上涨,从11% 到16%.
知道现在我们还无法确认什么疾病困扰着我们的这个女患者,我们目前比较相信她患有支气管炎的可能性很大,但是,我们应该获得更多信息来确定我们的判断,如果我们现在就主观定了病症,她可能得的是癌症,那我们就是一个烂医生。这就需要更多信息来做最后的决定。
因此,我们按照流程依此问她一些问题,如她最近是不是去过亚洲国家,吃惊的是她回答了“是”。现在获得的信息就影响了BN模型。
image.png
 患肺结核的几率显然增大,从 2%到 9%. 而患有癌症、支气管炎以及该患者是吸烟患者的几率都有所减少。为什么呢?因为此时呼吸困难的原因相对更倾向于肺结核。
继续问患者一些问题,假设患者是个吸烟者,则网络变为
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第253张图片
此时注意到最好的假设仍然是认为患者患有支气管炎。为了确认我们要求她做一个X光透视,结果显示其正常。结果如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第254张图片
 这就更加肯定我们的推断她患有支气管炎。
 如果X光显示不正常的话,则结果将有很大不同:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第255张图片
注意最大的区别。结核病或肺癌增加的概率极大。支气管炎仍然是三个独立的疾病中最可能的一个,但它小于"结核或肺癌"这一组合的假设。所以,我们将决定进行进一步测试,血液测试,肺组织活检,等等。我们当前的贝叶斯网不包括这些测试,但它很容易扩展,只需添加额外的节点作为我们获得新的统计数据的诊断程序。我们不需要扔掉以前的任何部分。这是贝叶斯网的另一个强大的功能。他们很容易扩展(或减少,简化),以适应不断变化的需求和变化的知识。

14.4Spark MLlib算法实现

第15章SVM支持向量机算法

15.1算法思想

SVM(Support Vector Machines)是分类算法中应用广泛、效果不错的一类。由简至繁SVM可分类为三类:线性可分(linear SVM in linearly separable case)的线性SVM、线性不可分的线性SVM、非线性(nonlinear)SVM。

15.1.1线性可分

对于二类分类问题,训练T={(x1,y1),(x2,y2),⋯,(xN,yN)}T={(x1,y1),(x2,y2),⋯,(xN,yN)},其类别yi∈{0,1}yi∈{0,1},线性SVM通过学习得到分离超平面:
image.png
以及相应的分类决策函数:
image.png
有如下图所示的分离超平面,哪一个超平面的分类效果更好呢?
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第256张图片
直观上,超平面B1B1的分类效果更好一些。将距离分离超平面最近的两个不同类别的样本点称为支持向量(support vector)的,构成了两条平行于分离超平面的长带,二者之间的距离称之为margin。显然,margin更大,则分类正确的确信度更高(与超平面的距离表示分类的确信度,距离越远则分类正确的确信度越高)。通过计算容易得到:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第257张图片
从上图中可观察到:margin以外的样本点对于确定分离超平面没有贡献,换句话说,SVM是有很重要的训练样本(支持向量)所确定的。至此,SVM分类问题可描述为在全部分类正确的情况下,最大化image.png(等价于最小化image.png);线性分类的约束最优化问题:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第258张图片
对每一个不等式约束引进拉格朗日乘子image.png;构造拉格朗日函数(Lagrange function):
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第259张图片
根据拉格朗日对偶性,原始的约束最优化问题可等价于极大极小的对偶问题:
image.png
将L(w,b,α)L(w,b,α)对w,bw,b求偏导并令其等于0,则
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第260张图片
将上述式子代入拉格朗日函数(3)(3)中,对偶问题转为
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第261张图片
等价于最优化问题:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第262张图片
线性可分是理想情形,大多数情况下,由于噪声或特异点等各种原因,训练样本是线性不可分的。因此,需要更一般化的学习算法。

15.1.2线性不可分

线性不可分意味着有样本点不满足约束条件(2)(2),为了解决这个问题,对每个样本引入一个松弛变量ξi≥0ξi≥0,这样约束条件变为:
image.png
目标函数则变为
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第263张图片
其中,C为惩罚函数,目标函数有两层含义:
margin尽量大,
误分类的样本点计量少
C为调节二者的参数。通过构造拉格朗日函数并求解偏导(具体推导略去),可得到等价的对偶问题:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第264张图片
与上一节中线性可分的对偶问题相比,只是约束条件αiαi发生变化,问题求解思路与之类似。

15.1.3非线性

对于非线性问题,线性SVM不再适用了,需要非线性SVM来解决了。解决非线性分类问题的思路,通过空间变换ϕϕ(一般是低维空间映射到高维空间x→ϕ(x)x→ϕ(x))后实现线性可分,在下图所示的例子中,通过空间变换,将左图中的椭圆分离面变换成了右图中直线。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第265张图片
在SVM的等价对偶问题中的目标函数中有样本点的内积xi⋅xjxi⋅xj,在空间变换后则是ϕ(xi)⋅ϕ(xj)ϕ(xi)⋅ϕ(xj),由于维数增加导致内积计算成本增加,这时核函数(kernel function)便派上用场了,将映射后的高维空间内积转换成低维空间的函数:
image.png
将其代入一般化的SVM学习算法的目标函数(7)(7)中,可得非线性SVM的最优化问题:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第266张图片

第16章决策树算法(重点看下)

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第267张图片
什么是决策树
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第268张图片
比如有一个新的男生过来了,模型会最终告诉你见还是不见
对于决策树来说,首先是一个分类算法,有一个监督学习,需要根据训练集,先把决策树训练出来,之后输入新的样本,之后决策树就会有一个答案
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第269张图片
信息熵,最上面的信息熵最大,最下面的信息熵为0。所以能够得到信息熵的影响幅度,就决定了节点的先后顺序

代表随机变量不确定度的度量,信息量是通信里面的一个名词是传输改信息所用的代价
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第270张图片
1/2*1 前面的1/2是概率,后面的1是问了1个问题,后面的以此类推,最后平均下来,相当于要问7/4个问题
回到信息熵的定义,如果把相应的东西代入的话,也能得到7/4
还是比较模糊,读到最后一句话,平均码长1.75
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第271张图片
熵是不确定度的度量,熵越大,说明x越不确定
联合熵就是x y一块出现的时候的熵,
条件熵就是联合分布-单一的分布,就是当y出现的时候x的熵
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第272张图片
最终怎么确定决策树?通过信息增益
信息增益用g表示,如上图
D的熵减去A条件下D的熵,这个叫信息增益
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第273张图片

信息增益/A到来的过程中D的熵
信息增益比用来判别,哪个节点在前边,哪个节点在后面,的标量。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第274张图片

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第275张图片

A1-A5是特征值,class是最后的分类,
A1-A5相当于前面的 帅不帅、是不是公务员,class是最后的见还是不见

通过这个样本把决策树训练出来,测试样本把最后的class展示出来
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第276张图片
对于A1只有两个值1和2,所以这里分成了两份D1 D2 数据集,通过概率分布,得到整个D的,H(D)是0.9969,因为对于class1有8个,对于class2有7个,总共15个
g(D,A1) 在A1的情况下,把信息增益算出来,得到0.2880
如果用A2的话,把整个数据集划分成了3份,123,
同样计算出g(D,A2),A2的信息增益,
以此类推算出A3 A4 A5的信息增益

发现A5的信息增益是最大的,这个时候把A5放在第一个节点

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第277张图片
从上上面的图能够看到A5数据集根据A5的值切成了3分D1 D2 D3,可以看到S2的1 5 7 14 的最后的class值都是2,已经定了,所以S2已经分好类了,就不要再管他了,因为不需要再往下有分支节点了。
然后开始先做S1的,因为A5已经分出去了,所以这里只考虑A1 A2 A3 A4 ,同样要计算出信息熵和信息增益,发现最后A4的信息增益最大

所以对于s1,就以A4作为节点,
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第278张图片

同样做出S3,发现最大的是A2

然后再往下
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第279张图片
根据A2的取值将S3分为了三个集合,其他两个已经是叶子节点,所以不用管了,所以继续看S33,还是上面的流程得到信息熵和信息增益,得到A1

最终至此得到了完整的决策树。

前面的0 1 就是最终决策出来的数值,后面的都是特征值,

还和之前的线性回归一样,屏蔽日志,创建sparkcontext,加载数据还是用的loadLibSVMFile,因为这个数据格式还是符合前面的格式的,然后把这个数据随机拆分70%的训练数据及,30%的测试数据集,然后得到了traningdata,testdata

然后训练数据模型,trainClassfier,把数据传进去,深度maxDepth,impurity gini系数,就是当前的决策树他的计算方式。刚开始的ppt说到有三种方式:ID3、C4.5、CART,通过testData直接通过model去做预测

然后把相应的信息打印出来
运行

如果feature 434<=0就是0,反之就是1。

从上面能够看到sparkMlib就是简化机器学习的操作。

之后可以看下tensorflow、Caffe 两个使用python写的

16.1决策树

决策树(Decision Tree)是一种基本的分类与回归方法。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。相比朴素贝叶斯分类,决策树的优势在于构造过程不需要任何领域知识或参数设置,因此在实际应用中,对于探测式的知识发现,决策树更加适用。
分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部节点和叶节点,内部节点表示一个特征或属性,叶节点表示一个类。
分类的时候,从根节点开始,对实例的某一个特征进行测试,根据测试结果,将实例分配到其子结点;此时,每一个子结点对应着该特征的一个取值。如此递归向下移动,直至达到叶结点,最后将实例分配到叶结点的类中。
举一个通俗的例子,各位立志于脱单的单身男女在找对象的时候就已经完完全全使用了决策树的思想。假设一位母亲在给女儿介绍对象时,有这么一段对话:
母亲:给你介绍个对象。
女儿:年纪多大了?
母亲:26。
女儿:长的帅不帅?
母亲:挺帅的。
女儿:收入高不?
母亲:不算很高,中等情况。
女儿:是公务员不?
母亲:是,在税务局上班呢。
女儿:那好,我去见见。
这个女生的决策过程就是典型的分类决策树。相当于对年龄、外貌、收入和是否公务员等特征将男人分为两个类别:见或者不见。假设这个女生的决策逻辑如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第280张图片
上图完整表达了这个女孩决定是否见一个约会对象的策略,其中绿色结点(内部结点)表示判断条件,橙色结点(叶结点)表示决策结果,箭头表示在一个判断条件

在不同情况下的决策路径,图中红色箭头表示了上面例子中女孩的决策过程。 这幅图基本可以算是一棵决策树,说它“基本可以算”是因为图中的判定条件没有量化,如收入高中低等等,还不能算是严格意义上的决策树,如果将所有条件量化,则就变成真正的决策树了。

16.2决策树模型的两种解释

分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶节点。内部结点表示一个特征或属性,叶节点表示一个类。

16.2.1决策树与if-then规则

可以将决策树看成一个if-then规则的集合。即由决策树的根结点到叶节点的每一条路径构建一条规则;路径上内部结点的特征对应着规则的条件,而叶结点的类对应着规则的结论。
决策树的路径或其对应的if-then规则集合的重要性质:互斥且完备(每一个实例都被一条路径或一条规则所覆盖,且只被一条路径或一条规则所覆盖,这里的覆盖是指实例的特征与路径上的特征一致或实例满足规则的条件)

16.2.2决策树与条件概率分布

决策树还表示给定特征条件下类的条件概率分布,它定义在特征空间的一个划分。将特征空间划分为互不相交的单元,并在每个单元定义一个类的概率分布就构成了一个条件概率分布。决策树的每一条路径对应于划分中的一个单元。
假设X为表示特征的随机变量,Y为表示类的随机变量,那么这个条件概率分布可以表示为P(X|Y),各叶结点上的条件概率往往偏向于某一个类,即属于某一类的概率越大。决策树分类时将该结点的实例强行分到条件概率大的那一类去。

16.3特征选择

知道了什么是决策树,那么如果构造决策树呢?为什么拿年龄作为第一个分类?那么就涉及到特征选择的问题。特征选择中用的最多的方法是通过熵和基尼进行对比。
特征选择的标准是找出局部最优的特征,判断一个特征对于当前数据集的分类效果,也就是按照这个特征进行分类后,不同分类的数据是否能够被尽量分开。

16.3.1熵

16.3.1.1 信息量

信息量由这个事件发生的概率所决定。经常发生的事件是没有什么信息量的,只有小概率的事件才有信息量,所以信息量的定义为:
image.png
例如:英语有26个字母,假如每个字母在文章中出现的次数是平均数,那每个字母的信息量是:
image.png

16.3.1.2 熵

熵,就是信息量的期望,熵表示随机变量不确定性的度量。熵越大,随机变量的不确定性就越大。信息熵的公式为:
image.png
条件熵表示在已知随机变量Y的条件下随机变量X的不确定性,公式为:
image.png

16.3.1.3 条件熵

H(Y|X) 表示在已知随机变量X的条件下随机变量Y的不确定性定义为X给定条件下Y的条件概率分布的熵对X的数学期望。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第281张图片
经验熵和经验条件熵:当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的熵与条件熵分别称为经验熵和条件经验熵。

16.3.1.4 信息增益

信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度。特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即
g(D,A)=H(D)−H(D|A)
这个差又称为互信息。信息增益大的特征具有更强的分类能力。
根据信息增益准则的特征选择方法是:对训练数据集(或子集)计算其每个特征的信息增益,选择信息增益最大的特征。
计算信息增益的算法如下:
输入:训练数据集D和特征A;
输出:特征A对训练数据集D的信息增益g(D,A).
(1)计算数据集D的经验熵H(D)
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第282张图片
(2)计算特征A对数据集D的经验条件熵H(D|A)
image.png

16.3.1.5 信息增益比

单纯的信息增益只是个相对值,因为这依赖于H(D)的大小,所以信息增益比更能客观地反映信息增益。特征A对训练数据集D的信息增益比gR(D,A)定义为其信息增益g(D,A)与训练数据集D关于特征A的值的熵HA(D)之比,即
image.png
其中,image.png,n是特征A取值的个数。

16.3.2基尼系数

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第283张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第284张图片

16.4决策树生成

16.4.1ID3算法

ID3算法由Ross Quinlan发明,建立在“奥卡姆剃刀”的基础上:越是小型的决策树越优于大的决策树(be simple简单理论)。ID3算法中根据信息增益评估和选择特征,每次选择信息增益最大的特征作为判断模块建立子结点。ID3算法可用于划分标称型数据集,没有剪枝的过程,为了去除过度数据匹配的问题,可通过裁剪合并相邻的无法产生大量信息增益的叶子节点(例如设置信息增益阀值)。使用信息增益的话其实是有一个缺点,那就是它偏向于具有大量值的属性。就是说在训练集中,某个属性所取的不同值的个数越多,那么越有可能拿它来作为分裂属性,而这样做有时候是没有意义的,另外ID3不能处理连续分布的数据特征,于是就有了C4.5算法。CART算法也支持连续分布的数据特征。
算法步骤如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第285张图片

16.4.2C4.5算法

C4.5算法用信息增益比来选择属性,继承了ID3算法的优点。并在以下几方面对ID3算法进行了改进:
克服了用信息增益选择属性时偏向选择取值多的属性的不足;
在树构造过程中进行剪枝;
能够完成对连续属性的离散化处理;
能够对不完整数据进行处理。
C4.5算法产生的分类规则易于理解、准确率较高;但效率低,因树构造过程中,需要对数据集进行多次的顺序扫描和排序。也是因为必须多次数据集扫描,C4.5只适合于能够驻留于内存的数据集。在实现过程中,C4.5算法在结构与递归上与ID3完全相同,区别只在于选取决决策特征时的决策依据不同,二者都有贪心性质:即通过局部最优构造全局最优。以下是算法步骤:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第286张图片

16.4.3CART

分类树与回归树(classification and regression tree,CART)模型(Breiman)由特征选择、树生成及剪枝组成,既可用于分类也可用于回归。CART是在给定输入随机变量X条件下输出变量Y的条件概率分布的学习方法。它假定决策树是二叉树,内部取值为“是”(左分支)和“否”(右分支)。
它的基本步骤为
o1)决策树生成:基于训练数据集生成决策树,生成的决策树要尽量大。
o2)决策树剪枝:用验证数据集对已生成的树进行剪枝并选择最优子树,这是用损失函数最小作为剪枝的标准。

16.4.3.1 分类树

对分类树用基尼系数(Gini index)最小化准则,进行特征选择,生成二叉树。
具体算法步骤如下:
o1)设结点的训练数据集为D,计算现有特征对该数据集的基尼指数。此时,对每一个特征A,对其可能取的每个值aa,根据样本点对A=aA=a的测试为”是”或者“否”将D分割为D1D1和D2D2两部分,计算其基尼系数。
o2)在所有可能的特征A以及他们所有可能的切分点aa中,选择基尼系数最小的特征及其对应的切分点作为最优特征与最优切分点。依最优特征与最优切分点,从现结点生成两个子结点,将训练数据集依特征分配到两个子结点中去。
o3)对两个子结点递归地调用上述两个步骤,直至满足停止条件。
o4)生成CART决策树

16.4.3.2 回归树

首先看一个简单的回归树生成实例:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第287张图片
接下来具体说说回归树是如何进行特征选择生成二叉回归树的。
假设X与Y分别为输入和输出变量,并且Y是连续变量,给定训练数据集
image.png
我们利用最小二乘回归树生成算法来生成回归树f(x),即在训练数据集所在的输入空间中,递归地将每个区域分为两个子区域并决定每个子区域上的输出值,构建二叉决策树,步骤如下:
1)选择最优切分变量j与切分点s,求解
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第288张图片
遍历变量j,对固定的切分变量j扫描切分点s,选择使上式达到最小值得对j,s
2)用选定的对(j,s)划分区域并决定相应的输出值:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第289张图片
3)继续对两个子区域调用步骤(1),(2),直至满足停止条件。
4)将输入空间划分为M个区域R1,R2,···,RM,在每个单元Rm上有一个固定的输出值cm,生成决策树:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第290张图片

16.5决策树剪枝

决策树生成算法对于训练集是很准确的,也就是生成的树枝很详细,但这样会过拟合,需要通过剪枝操作来提高泛化能力,思路很简单,就是在决策树对训练集数据的预测误差和树复杂度之间找一个平衡。
预测误差就是所有叶子节点的经验熵的和,其中image.png表示该叶节点的样本点个数,而image.png表示该叶子节点的经验熵:
image.png
树的复杂度由叶子节点的个数来表示:T。
所以,剪枝的标准就是极小化损失函数:
image.png
其中,image.png是调节参数。其越大表示选择越简单的树,而越小表示选择越复杂的树,对训练集拟合度高的树。
树的剪枝算法就是从叶子节点往上回溯,比较剪掉该叶子节点前后的损失函数的值。如果剪掉该叶子节点后,损失函数更小就剪掉,具体流程如下:
输入:生成算法产生的整个树T,参数image.png
输出:修剪后的子树image.png

1)计算每个节点的经验熵。
2)递归地从树的节点向上回溯。
设一组叶子节点回溯到其父节点之前与之后的整体树分别为image.pngimage.png,其对应的损失函数值分别是image.pngimage.png。如果image.png小于等于image.png,则进行剪枝,即将父节点变为新的叶子节点。
3) 返回2),直到不能继续为止,最终得到损失函数最小的子树image.png

16.6CART剪枝

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第291张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第292张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第293张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第294张图片

16.7Spark MLlib案例实现

第17章K近邻算法

17.1算法概述

K近邻算法简单、直观。首先给出一张图,根据这张图来理解最近邻分类器。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第295张图片
根据上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。也就是说,现在,我们不知道中间那个绿色的数据是从属于哪一类(蓝色小正方形或者红色小三角形),下面,我们就要解决这个问题:给这个绿色的圆分类。
我们常说,物以类聚,人以群分,判别一个人是一个什么样的人,常常可以从他身边的朋友入手,所谓观其友,而识其人。我们不是要判别上图中那个绿色的圆是属于那一类数据么,好说,从他的邻居下手。但一次性看多少个邻居呢?从上图中,你还可以看到:
o如果K=3,绿色圆点最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。
o如果K=5,绿色圆点的最近5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色这个待分类点属于蓝色的正方形一类。
于是,我们看到,KNN算法为给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分为这个类。
K近邻法算法步骤如下:
输入:训练数据集image.png
,其中image.png,是实例的特征向量,image.png是实例的类别;新实例的特征向量x。
输出:新实例x所属的类别y。
o1)根据给定的距离度量,在训练集T中找出与x最邻近的k个点,涵盖这k个点的x领域记作image.png
o2)在image.png中根据分类决策规则(如多数表决)决定x的类别y:
image.png
其中I为指示函数,即当image.png时为1,否则为0。

17.2K近邻模型

17.2.1模型

k近邻法中,当训练集、距离度量、K值以及分类决策规则确定后,对于任何一个新的输入实例,它所属的类唯一地确定。这相当于根据上述要素将特征空间划分为一些子空间,确定子空间里的每个点所属的类。

17.2.2距离度量

特征空间中两个实例点的距离可以反映出两个实力点之间的相似性程度。K近邻模型的特征空间一般是N维实数向量空间,使用的距离可以是欧式距离,也可以是其他距离。
1)欧氏距离:最常见的两点之间或多点之间的距离表示法,又称之为欧几里得度量,它定义于欧几里得空间中
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OYuCfTQZ-1576591955565)(https://cdn.nlark.com/yuque/0/2019/png/317488/1576576021090-775ccfcd-e3f9-44a4-bbd4-44dfd1764ab9.png#align=left&display=inline&height=80&name=image.png&originHeight=160&originWidth=444&size=13695&status=done&style=none&width=222)]
2)曼哈顿距离:我们可以定义曼哈顿距离的正式意义为L1距离或城市区块距离,也就是在欧几里得空间的固定直角坐标系上两点所形成的线段对轴产生的投射的距离总和。
通俗来讲,想想你在曼哈顿要从一个十字路口开车到另一个十字路口,驾驶距离是两点间的直线距离吗?显然不是,除非你能穿越大楼。而实际驾驶距离就是这个“曼哈顿距离”,此即曼哈顿距离名称的来源,同时,曼哈顿距离也称为城市街区距离。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第296张图片
3)切比雪夫距离:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第297张图片
4)闵可夫斯基距离:它不是一种距离,而是一组距离的定义。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第298张图片
当p=1时,即曼哈顿距离
当p=2时,即欧式距离
当p→∞,即切比雪夫距离
5)标准化欧氏距离:对样本集先进行标准化image.png经过简单的推导就可以得到来标准化欧氏距离。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7Cm6wKiD-1576591955571)(https://cdn.nlark.com/yuque/0/2019/png/317488/1576576048492-79c4db00-d393-44a4-aa05-742aaa2b284f.png#align=left&display=inline&height=79&name=image.png&originHeight=158&originWidth=464&size=16197&status=done&style=none&width=232)]
6)夹角余弦:几何中夹角余弦可用来衡量两个向量方向的相似度,机器学习中借用这一概念来衡量向量之间的相似度。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第299张图片

17.2.3K值得选择

K值得选择会对K近邻法的结果产生重大影响。
如果选择较小的K值,就相当于用较小的领域中的训练实例进行预测,“学习”近似误差会减小,只有与输入实例较近或相似的训练实例才会对预测结果起作用,与此同时带来的问题是“学习”的估计误差会增大,换句话说,K值得减小就意味着整体模型变得复杂,容易发生过拟合(容易受到训练数据的噪声而产生的过拟合的影响)。
如果选择较大的K值,就相当于用较大领域中的训练实例进行预测,其优点是可以减小学习的估计误差,但缺点是学习的近似误差会增大。这时候,与输入实例较远的训练实例也会对预测器作用,使预测发生错误,且K值得增大就意味着整体的模型变得简单。
如果K=N。那么无论输入实例是什么,都将简单地预测它属于在训练实例中最多的类。这时,模型过于简单,完全忽略训练实例中的大量有用信息,是不可取的(最近邻列表中可能包含远离其近邻的数据点),如下图所示。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6roPB3Rh-1576591955572)(https://cdn.nlark.com/yuque/0/2019/png/317488/1576576068724-ae634443-3980-45bb-a13d-72289338251d.png#align=left&display=inline&height=193&name=image.png&originHeight=386&originWidth=538&size=54300&status=done&style=none&width=269)]

17.2.4分类决策规则

K近邻法中的分类决策规则往往是多数表决,即由输入实例的K个邻近的训练实例中的多数类决定输入实例的类。
在实际应用中,K值一般取一个比较小的数值。通常采用交叉验证法来选取最优的K值(经验规则:K一般低于训练样本数的平方根)。

17.3K紧邻的优缺点

17.3.1优点

简单、易于理解、易于实现、无需估计参数、无需训练。
适合对稀有事件进行分类(如大概流式率很低时,比如0.5%,构造流失预测模型);
特别适合多酚类问题,如根据基因特征来判断其功能分类,KNN比SVM的表现要好。

17.3.2缺点

懒惰算法,对测试样本分类时的计算量大,内存开销大,评分慢。
可解释性较差,无法给出决策树那样的规则。
当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。
KNN是一种懒惰算法,平时不好好学习,考试(对测试样本分类)时才临阵磨枪(临时去找K个近邻),懒惰的后果,构造模型很简单,但在测试样本分类地系统开销大,因为要扫描全部训练样本并计算距离。已经有一些方法提高计算的效率,例如压缩训练样本量。
决策树和基于规则的分类器都是积极学习eager learner的例子,因为一旦训练数据可用,它们就开始学习从输入属性到类标号的映射模型。一个相反的策略是推迟对训练数据的建模,直到需要分类测试样例时再进行。采用这种策略的技术被称为消极学习法lazy learner。最近邻分类器就是这样的一种方法。

第18章聚类算法概述

18.1算法概述

“物以类聚,人以群分”
聚类算法属于无监督学习,类别提前是未知的。解决的问题是如何在海量的数据中将未知的数据分布特性收敛到具体的类别上。和分类不一样,分类是提前直到标签,属于有监督学习。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第300张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第301张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第302张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第303张图片在这里插入图片描述大数据学习笔记之Spark(八):Spark机器学习解析(一)_第304张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第305张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第306张图片

18.2应用场景

18.2.1基于用户位置信息的商业选址

随着信息技术的快速发展,移动设备和移动互联网已经普及到千家万户。在用户使用移动网络时,会自然的留下用户的位置信息。随着近年来GIS地理信息技术的不断完善普及,结合用户位置和GIS地理信息将带来创新应用。希望通过大量移动设备用户的位置信息,为某连锁餐饮机构提供新店选址。

18.2.2搜索引擎查询聚类以进行流量推荐

在搜索引擎中, 很多网民的查询意图的比较类似的,对这些查询进行聚类,一方面可以使用类内部的词进行关键词推荐;另一方面, 如果聚类过程实现自动化,则也有助于新话题的发现;同时还有助于减少存储空间等。

18.2.3保险投保者分组

通过一个高的平均消费来鉴定汽车保险单持有者的分组,同时根据住宅类型,价值,地理位置来鉴定一个城市的房产分组。

18.2.4网站关键词来源聚类整和

以领域特征明显的词和短语作为聚类对象,在分类系统的大规模层级分类语料库中,利用文本分类的特征提取算法进行词语的领域聚类,通过控制词语频率的影响,分别获取领域通用词和领域专类词。

第19章KMEANS聚类算法

19.1算法思想

K-means的目标是要将数据点划分为k个cluster,找到这每个cluster的中心未知,使最小化函数
image.png
其中在这里插入图片描述就是第i个cluster的中心。上式就是要求每个数据点要与它们所属cluster的中心尽量接近。
基本思想使初始随机给定K个簇中心,按照最邻近原则把待分类样本点分到各个簇。然后按平均法重新计算各个簇的质心。一直迭代,直到簇心得移动距离小于某个给定的值。

19.2KMEANS算法演示

设定K取2,即设定有两个类别。
1.未聚类的初始点集;
2.随机选取两个点作为聚类中心;
3.计算每个点到聚类中心的距离,并聚类到离该点最近的聚类中去;
4.计算每个聚类中所有点的坐标平均值,并将这个平均值作为新的聚类中心;
5.重复(c),计算每个点到聚类中心的距离,并聚类到离该点最近的聚类中去;
6.重复(d),计算每个聚类中的所有点的坐标平均值,并将这个平均值作为新的聚类中心。
KMEANS结束条件:直到类中心不再进行大范围移动或者聚类迭代次数达到要求为止。
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第307张图片

19.3最邻近算法

19.3.1欧氏距离

欧几里德距离,这个距离就是平时我们理解的距离,如果是两个平面上的点,也就是(X1,Y1),和(X2,Y2),那这俩点距离就是√( (x1-x2)2) ,如果是三维空间中呢?√( (x1-x2)2+(z1-z2)^2;推广到高维空间公式就以此类推。可以看出,欧几里德距离真的是数学加减乘除算出来的距离,因此这就是只能用于连续型变量的原因。

19.3.2余弦相似度

余弦相似度,余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比距离度量,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上。下图表示余弦相似度的余弦是哪个角的余弦,A,B是三维空间中的两个向量,这两个点与三维空间原点连线形成的角,如果角度越小,说明这两个向量在方向上越接近,在聚类时就归成一类:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第308张图片
从上图可以看出,欧氏距离衡量的是空间各点的绝对距离,跟各个点所在的位置坐标直接相关;而余弦距离衡量的是空间向量的夹角,更加体现在方向上的差异,而不是位置。如果保持A点位置不变,B点朝原方向远离坐标轴原点,那么这个时候余弦距离是保持不变的(因为夹角没有发生变化),而A、B两点的距离显然在发生改变,这就是欧氏距离和余弦距离之间的不同之处。
欧氏距离和余弦距离各自有不同的计算方式和衡量特征,因此它们适用于不同的数据分析模型:欧氏距离能够体现个体数值特征的绝对差异,所以更多的用于需要从维度的数值大小中体现差异的分析,如使用用户行为指标分析用户价值的相似度或差异。
余弦距离更多的是从方向上区分差异,而对绝对的数值不敏感,更多的用于使用用户对内容评分来区分兴趣的相似度和差异,同时修正了用户间可能存在的度量标准不统一的问题(因为余弦距离对绝对数值不敏感)。

19.4K的取值

这个真的没有确定的做法,分几类主要取决于个人的经验与感觉,通常的做法是多尝试几个K值,看分成几类的结果更好解释,更符合分析目的等。或者可以把各种K值算出的SSE做比较,取最小的SSE的K值。
如果有业务专家可以进行分析,或者可以使用层次聚类先进行比较粗粒度的聚类。

19.5K的初始位置

k-means++算法选择初始位置的基本思想就是:初始的聚类中心之间的相互距离要尽可能的远。
1.从输入的数据点集合中随机选择一个点作为第一个聚类中心
2.对于数据集中的每一个点x,计算它与最近聚类中心(指已选择的聚类中心)的距离D(x)
3.选择一个新的数据点作为新的聚类中心,选择的原则是:D(x)较大的点,被选取作为聚类中心的概率较大
4.重复2和3直到k个聚类中心被选出来
5.利用这k个初始的聚类中心来运行标准的k-means算法
从上面的算法描述上可以看到,算法的关键是第3步,如何将D(x)反映到点被选择的概率上,一种算法如下:
1.先从我们的数据库随机挑个随机点当“种子点”
2.对于每个点,我们都计算其和最近的一个“种子点”的距离D(x)并保存在一个数组里,然后把这些距离加起来得到Sum(D(x))。
3.然后,再取一个随机值,用权重的方式来取计算下一个“种子点”。这个算法的实现是,先取一个能落在Sum(D(x))中的随机值Random,然后用Random -= D(x),直到其<=0,此时的点就是下一个“种子点”。
4.重复2和3直到k个聚类中心被选出来
5.利用这k个初始的聚类中心来运行标准的k-means算法
可以看到算法的第三步选取新中心的方法,这样就能保证距离D(x)较大的点,会被选出来作为聚类中心了。至于为什么原因比较简单,如下图所示:
image.png
假设A、B、C、D的D(x)如上图所示,当算法取值Sum(D(x))*random时,该值会以较大的概率落入D(x)较大的区间内,所以对应的点会以较大的概率被选中作为新的聚类中心。

19.6Spark MLlib案例实现

第20章EM算法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ezFKIqUZ-1576591955584)(https://cdn.nlark.com/yuque/0/2019/png/317488/1576576231280-c435752d-680c-4736-8b51-6e7d8f4e33a2.png#align=left&display=inline&height=64&name=image.png&originHeight=128&originWidth=880&size=107525&status=done&style=none&width=440)]

20.1定义

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3tTLbiX0-1576591955584)(https://cdn.nlark.com/yuque/0/2019/png/317488/1576576244417-81ecbe30-a1b8-4d2c-a932-c661d550e226.png#align=left&display=inline&height=47&name=image.png&originHeight=94&originWidth=878&size=74059&status=done&style=none&width=439)]

20.2Jensen不等式

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第309张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第310张图片
image.png

20.3EM思想

20.3.1极大似然估计

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第311张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第312张图片

20.3.2EM算法思想

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第313张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第314张图片

20.4EM推导

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第315张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第316张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第317张图片
image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第318张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第319张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第320张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第321张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第322张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第323张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第324张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第325张图片image.png
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第326张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第327张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第328张图片image.png大数据学习笔记之Spark(八):Spark机器学习解析(一)_第329张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第330张图片

第21章FPGrowth关联规则算法(重点看下APriori的效率没有FPGrowth高,就不要看了)

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第331张图片
中国人发明的算法

T* 就是一次购物
项,上面的面包、牛奶都是一项,项集的意思就不用说了把
支持度,相当于过滤,如果你出现的次数或者概率,如果项出现的次数小于支持度,就把他过滤掉,所以就不会出现在结果里面
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第332张图片
把上图假设成六个人的购物,然后对每次购物进行排序,发现b出现了6次,e出现了5次,a出现了4次,c出现了4次,d出现了4次
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第333张图片
挖掘过程:
首先构建一个fptree,构建一个根节点{},相当于是root一样,这个时候先把BEAD放进来,放B的时候,根节点里面内有这个节点,那么,新建一个节点,B(1),里面的1是B出现的次数,然后后面的EAD重复前面的操作,这样就把第一条数据放进来了
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第334张图片
然后接着把第二条放进来,因为B在第一条的时候已经有了,所以这里不需要在新建了只需要在后面加一个1变成了B(2),C原来是没有的,所以在后面新建了一个C
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第335张图片
然后到了第三条,如上
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第336张图片
第四条,如上
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第337张图片
第五条,如上
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第338张图片
第六条如上
最终的数据集也就是上面那样

那么该怎样数据挖掘呢?
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第339张图片
最上面的图就是刚才构建完的树,挖掘的顺序是 d到b,
在这里插入图片描述
首先从d开始挖掘,找到上面出现d的所有节点,可以看到有daeb,dcaeb,dcb,在整个流程里面这个d出现了4次
这个时候去掉d,就生成了第二行的五个子fptree,第一个子tree,c为什么是1?因为第一个大图去掉d的时候,经过了一次c,所以这个c变成了1,为什么a是3呢?因为d2经过了两次,d1经过了1次,加起来变成了3次,同样e变成了3次,b变成了4次,可看到对于d来说,会形成下面的第一个子树,然后看到左边,最低支持度是3,所以c1被干掉了,因为c的度是小于3的,他被干掉之后,同样要开始挖掘
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第340张图片
可以看到开始挖掘a了,为什么没有c了呢,因为在d生成的子树中,c被干掉了,只剩下了aeb了,从a开始挖掘,就生成了最下面的最左边的子树,因为经过了三次a,所以生成了e3、b3,同样通过e去挖掘的时候,生成了b3,用b去挖掘的时候什么都没有了,所以变成了空。
什么时候递归挖掘会结束呢?变成一条链的时候
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第341张图片
如图这三个都是一条链,就是如果只有一条链,或者没有链的时候就停止挖掘,这个时候的频繁项集是什么呢?
就是最下面的dae(3) daeb(3) dab(3),就是所有可能出现的
以同样的方式迭代后面的子树
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第342张图片
后面会得到一系列的频繁项集
因为最低支持度是3,可以看到上面的d4、da3、de3、db4等,可以从大到小排列,然后选取最大的集合作为最后的输出。

同样也有代码
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第343张图片
这个数据是模拟购物过程
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第344张图片
跟之前的线性回归前面的代码一样,
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第345张图片
这里定义了最小支持度,注意这里的最小支持度,在0-1之前,numPartition是spark的并行度,有几个并行程序去挖掘。
然后直接new一个FPGrowth,把上面的两个参数传入,然后直接run
之后freqltemsets返回一个频繁项集,然后把频繁项集都打印出来
运行程序
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第346张图片

21.1算法思想

FPGrowth算法通过构造一个FPTree树结构来压缩数据记录,使得挖掘频繁项集只需要扫描两次数据记录,而且该算法不需要生成候选集合,所以效率会比较高。如何从购物篮里面发现 尿布+啤酒 的最佳组合。 我们以以下数据集为例:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第347张图片
TID Items
T1 { 面包 , 牛奶 }
T2 { 面包 , 尿布 , 啤酒 , 鸡蛋 }
T3 { 牛奶 , 尿布 , 啤酒 , 可乐 }
T4 { 面包 , 牛奶 , 尿布 , 啤酒 }
T5 { 面包 , 牛奶 , 尿布 , 可乐 }
注意:牛奶、面包叫做项,{ 牛奶、面包 }叫做项集。项集出现的次数叫做支持度。T* 表示用户每次的购物清单。
21.1.1构造FPTree
FPTree是一种树结构,需要将表中的数据以及关系进行保存,我们先来看构建过程:假设我们的最小支持度是3。
Step 1:扫描鼓舞数据记录,生成一级频繁项集,并按出现次数由多到少排序,如下所示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第348张图片
Item Count
牛奶 4
面包 4
尿布 4
啤酒 3
可乐 2
鸡蛋 1
可以看到,鸡蛋和可乐在上表中要删除,因为可乐只出现2次,鸡蛋只出现1次,小于最小支持度,因此不是频繁项集,非频繁项集的超集一定不是频繁项集,所以可乐和鸡蛋不需要再考虑。
Step 2:再次扫描数据记录,对每条记录中出现在Step 1产生的表中的项,按表中的顺序排序。初始时,新建一个根结点,标记为null;
1)第一条记录:{面包,牛奶}需要根据Step1中结果转换成:{牛奶,面包},新建一个结点,name为{牛奶},将其插入到根节点下,并设置count为1,然后新建一个{面包}结点,插入到{牛奶}结点下面,插入后如下所示:大数据学习笔记之Spark(八):Spark机器学习解析(一)_第349张图片2)第二条记录:{面包,尿布,啤酒,鸡蛋},过滤并排序后为:{面包,尿布,啤酒},发现根结点没有包含{面包}的儿子(有一个{面包}孙子但不是儿子),因此新建一个{面包}结点,插在根结点下面,这样根结点就有了两个孩子,随后新建{尿布}结点插在{面包}结点下面,新建{啤酒}结点插在{尿布}下面,插入后如下所示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第350张图片
3)第三条记录:{牛奶,尿布,啤酒,可乐},过滤并排序后为:{牛奶,尿布,啤酒},这时候发现根结点有儿子{牛奶},因此不需要新建结点,只需将原来的{牛奶}结点的count加1即可,往下发现{牛奶}结点有一个儿子{尿布},于是新建{尿布}结点,并插入到{牛奶}结点下面,随后新建{啤酒}结点插入到{尿布}结点后面。插入后如下图所示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第351张图片
4)第四条记录:{面包,牛奶,尿布,啤酒},过滤并排序后为:{牛奶,面包,尿布,啤酒},这时候发现根结点有儿子{牛奶},因此不需要新建结点,只需将原来的{牛奶}结点的count加1即可,往下发现{牛奶}结点有一个儿子{面包},于是也不需要新建{面包}结点,只需将原来{面包}结点的count加1,由于这个{面包}结点没有儿子,此时需新建{尿布}结点,插在{面包}结点下面,随后新建{啤酒}结点,插在{尿布}结点下面,插入后如下图所示:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第352张图片
5)第五条记录:{面包,牛奶,尿布,可乐},过滤并排序后为:{牛奶,面包,尿布},检查发现根结点有{牛奶}儿子,{牛奶}结点有{面包}儿子,{面包}结点有{尿布}儿子,本次插入不需要新建结点只需更新count即可,示意图如下:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第353张图片
按照上面的步骤,我们已经基本构造了一棵FPTree(Frequent Pattern Tree),树中每个路径代表一个项集,因为许多项集有公共项,而且出现次数越多的项越可能是公公项,因此按出现次数由多到少的顺序可以节省空间,实现压缩存储,另外我们需要一个表头和对每一个name相同的结点做一个线索,方便后面使用,线索的构造也是在建树过程形成的(下图虚线)。最后的FPTree如下:大数据学习笔记之Spark(八):Spark机器学习解析(一)_第354张图片

21.1.2利用FPTree挖掘频繁项集

FPTree建好后,就可以进行频繁项集的挖掘,挖掘算法称为FPGrowth(Frequent Pattern Growth)算法,挖掘从表头header的最后一个项开始。
1)此处即从{啤酒}开始,根据{啤酒}的线索链找到所有{啤酒}结点,然后找出每个{啤酒}结点的分支:{牛奶,面包,尿布,啤酒:1},{牛奶,尿布,啤酒:1},{面包,尿布,啤酒:1},其中的“1”表示出现1次,注意,虽然{牛奶}出现4次,但{牛奶,面包,尿布,啤酒}只同时出现1次,因此分支的count是由后缀结点{啤酒}的count决定的,除去{啤酒},我们得到对应的前缀路径{牛奶,面包,尿布:1},{牛奶,尿布:1},{面包,尿布:1},根据前缀路径我们可以生成一颗条件FPTree,构造方式跟之前一样,此处的数据记录变为:在这里插入图片描述image.png
TID Items
T1 {牛奶,面包,尿布 : 1}
T2 {牛奶,尿布: 1}
T3 {面包,尿布: 1}
绝对支持度依然是3,我们发现此时,牛奶的支持度为2、面包的支持度为2、尿布的支持度为3,由于我们的支持度为3,所以删除牛奶和面包。按照相同的算法构造得到的FPTree为:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第355张图片
构造好条件树后,对条件树进行递归挖掘,当条件树只有一条路径时,路径的所有组合即为条件频繁集,假设{啤酒}的条件频繁集为{S1,S2},则{啤酒}的频繁集为{S1+{啤酒},S2+{啤酒},S1+S2+{啤酒}},即{啤酒}的频繁集一定有相同的后缀{啤酒},此处的条件频繁集为:{{},{尿布}},于是{啤酒}的频繁集为{{啤酒}{尿布,啤酒}}。
2)接下来找header表头的倒数第二个项{尿布}的频繁集,同上可以得到{尿布}的前缀路径为:{面包:1},{牛奶:1},{牛奶,面包:2},条件FPTree的数据集为:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第356张图片
TID Items
T1 {面包 :1 }
T2 {牛奶 :1}
T3 {牛奶,面包 :2}
构造的条件FpTree为:
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第357张图片
这颗条件树路径上的所有组合即为条件频繁集:{{},{牛奶},{面包},{牛奶,面包}},加上{尿布}后,又得到一组频繁项集{{尿布},{牛奶,尿布},{面包,尿布},{牛奶,面包,尿布}},这组频繁项集一定包含一个相同的后缀:{尿布},并且不包含{啤酒},因此这一组频繁项集与上一组不会重复。

重复以上步骤,对header表头的每个项进行挖掘,即可得到整个频繁项集,频繁项集即不重复也不遗漏。

21.2Spark MLlib案例实现

第22章Apriori关联规则算法

22.1关联分析

22.1.1引言

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第358张图片

22.1.2简单关联规则初探

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第359张图片
大数据学习笔记之Spark(八):Spark机器学习解析(一)_第360张图片

22.1.3简单关联规则的有效性

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第361张图片在这里插入图片描述大数据学习笔记之Spark(八):Spark机器学习解析(一)_第362张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第363张图片

22.1.4简单关联规则的实用性

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第364张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第365张图片

22.2Apriori算法

22.2.1简介

在这里插入图片描述

22.2.2频繁项集的相关定义

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第366张图片

22.2.3寻找频繁项集

大数据学习笔记之Spark(八):Spark机器学习解析(一)_第367张图片在这里插入图片描述大数据学习笔记之Spark(八):Spark机器学习解析(一)_第368张图片大数据学习笔记之Spark(八):Spark机器学习解析(一)_第369张图片

22.2.4在最大频繁项集的基础上产生简单关联规则

在这里插入图片描述在这里插入图片描述大数据学习笔记之Spark(八):Spark机器学习解析(一)_第370张图片

你可能感兴趣的:(#,BigData,------,Spark)