《西瓜书》大白话思想总结-第三章

第三章

3.1+3.2

分类和回归是监督式学习,都是根据数据,分析特征,作出预测,只是预测的值是离散的叫分类,连续的叫回归。

为什么叫线性回归呢?因为线性就可以看成是直线,直线当然是连续的。而所给的直线就是根据离散点拟合出来的线,其本质就是一种预测。那么根据离散点的特征,给出了预测方程的这个直线,就符合回归的定义。因此,这就叫作线性回归。(个人理解,不一定对)这个拟合直线的方程,或者叫预测的函数,各个自变量可看做是各个属性,其系数相当于是各属性在预测中所占的重要性。

线性回归也是线性模型的一种,为什么要先学线性的模型?因为线性模型是基础,在线性模型的基础上,如果加入层级结构或者高维映射,就变成了非线性模型。

线性回归模型有一元线性回归模型和多元线性回归模型。

(1)一元线性回归模型也就是只有一个属性。属性有离散型,也有连续型(注意是属性,不是预测值)。而我们的线性回归函数是连续的,那么我们的属性值如果是离散的,必须要转化为连续的,这样才能代入到函数式中。针对离散型属性,我们从属性值有无“序“的角度来划分。如果属性值有序,二值的{1.0,0.0},三值的{1.0,0.5,0.0}……。如果属性值无序,这时候就不能像有序的那种做了,否则会对后面造成误导,需要将其转化为向量的形式。现在我们设定了一个线性回归函数了,也就是知道了预测函数的大概样子,但是预测函数的具体参数值并不知道。此时,我们需要干两件事。第一,我们需要知道我这个函数到底好不好

你可能感兴趣的:(西瓜书,概率论,机器学习,分类)