机器学习课程笔记——多元线性回归

一、一元线性回归

在一元线性回归中,假设函数里只有一个单一特征量。

如通过 房屋的面积x 来预测 房子的价格y。

机器学习课程笔记——多元线性回归_第1张图片

从而得到假设函数:

h_{\theta }\left ( x \right )=\theta_{0}+\theta _{1}x

其中Θ为特征量x的权重值。

二、多元线性回归

而如果我们不仅有房屋面积作为预测房屋价格的特征量(变量),我们还知道卧室的数量、楼层的数量以及房子的使用年限。这样就有更多的特征量可以用来预测房屋的价格。

机器学习课程笔记——多元线性回归_第2张图片

n为特征量的个数,如以上有4个不同的特征量,即 n=4。

m用来表示样本的数量, 若我们有47组数据,则 m=47。

x^{\left ( i \right )}为样本的输入特征值,如 x^{^{\left ( 2 \right )}}=\begin{bmatrix} 1416\\ 3\\ 2\\ 40 \end{bmatrix}为第2组样本的四个特征量。

x_{j}^{\left ( i \right )}表示第i个样本的第j个特征量,如 x_{3}^{\left ( 2 \right )}表示第2组样本的第3个特征值,x_{3}^{\left ( 2 \right )}=2

参考一元线性回归,我们可以得到多元线性回归的假设函数:

h_{\theta }\left ( x \right )=\theta _{0}+\theta _{1}x_{1}+\theta _{2}x_{2}++\theta _{3}x_{3}+\theta _{4}x_{4}

每个特征值x都有与其相对应的权重Θ。

但上式中,\theta为从0开始的参数,x为从1开始的参数,\theta和x的维数不一致,会影响后面的矩阵运算。所以为了方便起见,我们为x定义一个额外的特征量x_{0},令x_{0}^{\left ( i \right )}=1

 h_{\theta }\left ( x \right )=\theta _{0}x_{0}+\theta _{1}x_{1}+\theta _{2}x_{2}+\theta _{3}x_{3}+\theta _{4}x_{4}

这样x的维度就能和\theta的维度保持一致。(因为x_{0}^{\left ( i \right )}=1,所以上下两个等式是一样的。)

 

特征向量x是一个从0开始标记的n+1维的向量x= \begin{bmatrix} x_{0}\\ x_{1}\\ ...\\ x_{n} \end{bmatrix}\subseteq \mathbb{R}^{n+1}

参数也可写成向量的形式\theta = \begin{bmatrix} \theta_{0}\\ \theta_{1}\\ ...\\ \theta_{n} \end{bmatrix}\subseteq \mathbb{R}^{n+1}

故假设函数可以用矩阵表示:

h_{\theta }\left ( x \right )= \theta _{0}x_{0}+\theta _{1}x_{1}+\theta _{2}x_{2}+\theta _{3}x_{3}+\theta _{4}x_{4}=\theta ^{T}x


以上内容根据Stanford University机器学习课程进行笔记整理。

你可能感兴趣的:(机器学习,线性回归,人工智能)