最小二乘法

2018/08/17
这个算是非常基本的计算方法了,不管什么统计学的书都会说,甚至机器学习的书也会说。
我觉得,这个算法呢,为解决的问题是距离,这个才是关键。更具体一点,就是毕竟要有一个参照基准,不然你说你这个拟合的好,那为什么好呢。

最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。
(转自百度百科)

2018/11/26
进行机器学习的旅程中,一直以来,每次开头我都看不起线性回归这个方法,总觉得这玩意有什么好看的,小学生都会。(昨天看了一本叫做《如何高校学习的书》,不讨论书的质量,仅仅谈看了之后自己的感想)


不单单是因为看了这本书,很久以来我都对自己的学习效率,学习曲线很不满。好了,回到正题。

以往对这些简单的内容都是嗤之以鼻,联想到书中的一个比喻,我觉得可以这样来理解。


假设我学习的过程是利用各种零件来创造一个机器产物,可能是一个简单的机械臂,也可能是高级的数控车床。如果这个机器产物代表着一个成型的知识体系,那么零件就是一些基础的知识,肯定到不了加减乘除那么底层(如果分解递归一下,肯定能到)。不管我去生产什么,我都不可能脱离这些基础的东西。
如果我对这些基础的内容不够上心,我可以把他们当作是一个简单的演示样本的生产过程。它的主要目的,是让我理解这部分内容,他的各部分功能是干什么的,它有哪些其他内容也通用的技术指标。举个实例,我学习线性回归的时候,通过抽象出来评价指标,它们同样应用于其他的算法。通俗一点,就是线性回归比较简单,所以用它举例来学习一些流程属上乘之选,“麻雀虽小五脏俱全”。


总结一下,对于简单的学习内容,有两个目的。第一,就是要掌握它;第二,用它作为类比的最基础的对象,因为其简单的结构,可以在学习过程中,先忽略一部分内容,重点关注一些通用的。

你可能感兴趣的:(最小二乘法)