Normalize 归一化 + 线性回归和逻辑回归

数据处理

Normalize 归一化 & regularzation正则化

在看代码时候,经常会看到normalize的部分,之前一直不太关注,因为不是所有论文代码都有这部分处理,之前自己没仔细看,现在想想 应该是再 utils里面 的 normalize 对 特征矩阵进行 了归一化(行或者列)。

有关正则化的一个博文

Normalize 归一化 + 线性回归和逻辑回归_第1张图片

1. 正则化 通过对参数施加,避免过拟合

L0范数 稀疏 Lasso回归 L0会使解位于坐标轴上,解的坐标维度会有0,产生稀疏的效果,从而 部分维度=0,部分=1,间接产生 特征选择 的效果

比较详细,从p范数出发,解释了0范数是稀疏,但因为求解L0范数 是NP-hard的,理论表面L1范数是L0的最好逼近。因此常用L1范数进行求解,L2范数是稠密范数,常对参数w进行正则化。
Normalize 归一化 + 线性回归和逻辑回归_第2张图片

L2范数 岭回归 权重衰减。

Normalize 归一化 + 线性回归和逻辑回归_第3张图片

L1,L2 范数 到底为什么能避免过拟合? 链接中还包含 病态矩阵(对矩阵微小扰动,会使得解变化很大,原因:列向量相关性太强 病态矩阵)

数学角度

Normalize 归一化 + 线性回归和逻辑回归_第4张图片
Normalize 归一化 + 线性回归和逻辑回归_第5张图片

几何角度

Normalize 归一化 + 线性回归和逻辑回归_第6张图片

更加详细的数学推导!!!! 推荐~~~:

数学损失函数 梯度、特征值 角度来说明L2范数
结论是 L2范数能够 对 重要参数抑制小,对不重要的参数抑制大,使得不重要的参数 对model 起的作用小,从而使得model 对不同参数不同对待,不用都去考虑,不用过于 拟合 数据。从而减轻过拟合。

2. 归一化和标准化

归一化 和标准化 都能对数据进行缩放。

标准化 又称为 Z-score 去中心归一化。 通过计算 整体数据的 均值和方差 进行求解。
归一化通过 利用数据 的最大值和最小值 对数据进行缩放,常用于已知最大最小值。

Normalize 归一化 + 线性回归和逻辑回归_第7张图片

为什么要做 中心化和标准化

Normalize 归一化 + 线性回归和逻辑回归_第8张图片

sklearn.preprocessing.normalize/ Normalizer() and .scale/ StandardScaler()

具体见
直接采用两个两个函数,可以对数据进行标准化处理,normalize是 正则化 计算,采用l1,l2。 scale 是标准化,即均值方差z-score

3. 线性回归& 逻辑回归 LR

线性回归解决预测问题,逻辑回归通过sigmoid函数 将(-∞,∞)的值映射到(0,1)。从而解决分类问题
Normalize 归一化 + 线性回归和逻辑回归_第9张图片

你可能感兴趣的:(线性回归,逻辑回归,机器学习)