机器学习入门~多元梯度下降法①

多功能

①假设函数为h(x) = θ0 + θ1*x ,仅有房子大小这一个参数时:
机器学习入门~多元梯度下降法①_第1张图片
由一个特征变为四个特征

②多参数时:
机器学习入门~多元梯度下降法①_第2张图片
一些符号:
在这里插入图片描述
1)n表示特征量的个数。
2)m表示数据集的容量(训练样本数),即表②表格的行数。
3)x(i) 来表示第i个训练样本的输入特征值。其中i表示训练集的一个索引,在特征量不唯一时,x(i) 可以看作一个向量。(对于本例来说,它是一个四维向量)
机器学习入门~多元梯度下降法①_第3张图片

4)x(i) _j表示第i个训练样本中第j个特征量的值。(i和j相当于二维数组的索引)
④多参数时的假设函数h(x):
机器学习入门~多元梯度下降法①_第4张图片
特征量唯一时的假设函数
在这里插入图片描述
有四个特征量时的假设函数
在这里插入图片描述
多特征量假设函数,可以看作 x0 = 1
通过将θ0旁的x0 视作 1,可以用向量来表示多特征量的假设函数:
机器学习入门~多元梯度下降法①_第5张图片
h(x) = θT*x,其中,θ代表有θ0 ~ θn组成的向量,x表示从x0 ~ xn组成的向量。
给它另取一个名字:多元线性回归。

多元梯度下降法

①假设函数,参数与代价函数
机器学习入门~多元梯度下降法①_第6张图片
1)对于假设函数,令x0 = 1。
2)参数可以视作一个n+1维的向量θ。
3)J看作是θ这一向量的函数。
故,修正后:
机器学习入门~多元梯度下降法①_第7张图片
②只有一个参数(n = 1)时的梯度下降算法:一元线性回归,之前的笔记中已提及。
机器学习入门~多元梯度下降法①_第8张图片
注:同时更新θ0和θ1。
③多元梯度下降算法:参数的个数大于等于1。
机器学习入门~多元梯度下降法①_第9张图片
注1:同时更新θ0 ~ θn。
注2:蓝色方框内的项即为J(θ)对θj求偏导的结果。

你可能感兴趣的:(机器学习,机器学习)