机器学习之最小二乘法

文章目录

    • 一、最小二乘法理解:
    • 二、公式推导
    • 三、最小二乘法局限性
    • 四、最小二乘法与极大似然法的比较
    • 五、最小二乘法与梯度下降法异同

一、最小二乘法理解:

1.定义

先从最小二乘的名字来看,所谓最小二乘,其实也可以叫做最小平方和。那么,是什么的平方和最小呢?那肯定是误差最小,那是什么的误差呢?就是目标对象和拟合对象的误差。连起来看,就是通过最小化误差的平方和,使得拟合对象无限接近目标对象,这就是最小二乘的核心思想。可以看出,最小二乘解决的是一类问题,就是需要拟合现有对象的问题。这么看来,是不是也就可以理解为什么最小二乘应用如此广泛了呢。

最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。通过一元线性模型应用来理解最小二乘法。

2.基本思想
求出这样一些未知参数使得样本点和拟合线的总误差(距离)最小
机器学习之最小二乘法_第1张图片

而这个误差(距离)可以直接相减,但是直接相减会有正有负,相互抵消了,所以就用差的平方

3.最小二乘法使用的前提条件

数据连续的而非离散

4.最常使用的场景就是回归模型,

在监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面。最小二乘法就是回归问题解决的基本方法,同时,最小二乘法在数学上称为曲线拟合。

二、公式推导

机器学习之最小二乘法_第2张图片
机器学习之最小二乘法_第3张图片

三、最小二乘法局限性

机器学习之最小二乘法_第4张图片

四、最小二乘法与极大似然法的比较

最小二乘法可以从Cost/Loss function角度去想,这是统计(机器)学习里面一个重要概念,一般建立模型就是让loss function最小,而最小二乘法可以认为是 loss function = (y_hat -y )^2的一个特例,类似的想各位说的还可以用各种距离度量来作为loss function而不仅仅是欧氏距离。所以loss function可以说是一种更一般化的说法。

最大似然估计是从概率角度来想这个问题,直观理解,似然函数在给定参数的条件下就是观测到一组数据realization的概率(或者概率密度)。最大似然函数的思想就是什么样的参数才能使我们观测到目前这组数据的概率是最大的。

类似的从概率角度想的估计量还有矩估计(moment estimation)。就是通过一阶矩 二阶矩等列方程,来反解出参数。

最大似然估计和最小二乘法还有一大区别就是,最大似然估计是需要有分布假设的,属于参数统计,如果连分布函数都不知道,又怎么能列出似然函数呢? 而最小二乘法则没有这个假设。 二者的相同之处是都把估计问题变成了最优化问题。但是最小二乘法是一个凸优化问题,最大似然估计不一定是。

极大似然法的理解,可以参考博客:https://blog.csdn.net/qs17809259715/article/details/96141858

五、最小二乘法与梯度下降法异同

机器学习之最小二乘法_第5张图片
参考文档
https://blog.csdn.net/zhaomengszu/article/details/78935022

https://blog.csdn.net/suibianshen2012/article/details/51532003

https://blog.csdn.net/yphust/article/details/90345697

https://www.cnblogs.com/jooyu/articles/6953472.html

你可能感兴趣的:(机器学习)