第3章:线性模型

线性回归

第3章:线性模型_第1张图片
优点:简单、基本、可理解性好。
适用于处理数值型数据。编码:序关系(衣服号码s、m、l等等)独热编码(00010)
第3章:线性模型_第2张图片

求解

第3章:线性模型_第3张图片
求偏导让导数为0?为什么?
希望找到极值点,即误差最小的时候。

第3章:线性模型_第4张图片

多元线性回归

将b和w合并,x加一个1。
第3章:线性模型_第5张图片
第3章:线性模型_第6张图片
求逆矩阵时如果不满秩会解出多个解,这个时候就要根据自己的偏好进行选择了。
在这里插入图片描述

广义线性模型

第3章:线性模型_第7张图片
第3章:线性模型_第8张图片

对率回归(分类)

第3章:线性模型_第9张图片
第3章:线性模型_第10张图片
第3章:线性模型_第11张图片
为什么不能求偏导求解?因为这个方法只适用于凸函数。

求解

第3章:线性模型_第12张图片
第3章:线性模型_第13张图片
第3章:线性模型_第14张图片
为什么要加ln?因为两个很小的小数相乘会造成浮点数下溢,取ln可以将乘法变成加法。
第3章:线性模型_第15张图片
第3章:线性模型_第16张图片
最后利用梯度下降法求解即可。
第3章:线性模型_第17张图片

线性判别分析

LDA思想:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能近(均值),异类尽可能远(方差)。
第3章:线性模型_第18张图片

损失函数

第3章:线性模型_第19张图片
二范数
a=(a1,a2)
∣ ∣ a ∣ ∣ 2 a = ( a 1 2 + a 2 2 ) 2 ||a||_2^a=(\sqrt{a_1^2+a_2^2})^2 ∣∣a2a=(a12+a22 )2
第3章:线性模型_第20张图片
第3章:线性模型_第21张图片
为什么上下的w不能约掉?因为要求解的就是w。
因为上下都有w是成比例的,没有唯一解,所以可以将分母固定为1(固定分子也行,等于其他数也行,习惯问题)。

求解

拉格朗日乘子法
第3章:线性模型_第22张图片
查阅矩阵微分公式
第3章:线性模型_第23张图片
为什么SB=SBT?SB SW为对称矩阵?SB:列向量乘转置矩阵就是对称的。SW协方差矩阵是对称的。
第3章:线性模型_第24张图片

第3章:线性模型_第25张图片
第3章:线性模型_第26张图片
广义特征值
在这里插入图片描述
广义瑞利商
在这里插入图片描述
厄米矩阵:
第3章:线性模型_第27张图片
第3章:线性模型_第28张图片

多分类

一般是基于一些策略,利用二分类学习器解决多分类问题。

  • 一对一:每两个类别训练一个分类器,总共训练n*(n-1)/2个,最后投票决定。
  • 一对其余:使用一个类别为正例,其余均为反例。使用n个分类器进行分类,如果仅有一个分类器的结果为正例,那么就为该类别,否则取置信度最大的正例对应的类别。
  • 多对多:正、反类必须构造出特殊的设计–纠错输出码。1.对N个类别做M次划分,训练M个分类器。2.将预测标记组成编码,分别利用M个分类器对每种类别进行预测,然后对新样本进行预测,看预测出来的序列与哪种类别距离最近。

类别不平衡

什么时候处理类别不平衡?
小类很重要的时候。
平时分类隐含的是以0.5为分界,但是如果正负不同样比例的时候,需要改变。
但是,一般的数据都是总体的一部分,很难准确估计出来总体样本的类别比例。
第3章:线性模型_第29张图片
第3章:线性模型_第30张图片

  • 过采样:1.copy小类(会增大噪声的影响)2.SMOTE在两个小样本之间插值。
  • 欠采样:1.丢掉一些样本(不确定会不会丢掉重要样本)2.EasyEnsemble集成学习的思想,每次从大类中选取和小类相同的样本数量,重复,最后投票。
  • 阈值移动:(支持向量机)

你可能感兴趣的:(机器学习,机器学习)