线性回归 多变量预测

多变量预测

多元线性回归

对于多个特征量(Features),规定符号表示:

n n n 特征的总数量
x ( i ) x^{(i)} x(i) 第i个训练样本的输入特征向量, i i i表示的是一个索引(Index)
x j i x_j^i xji 第i个训练样本中特征向量的第j个值

此时的假设函数不再是单纯的 h θ ( x ) = θ 0 + θ 1 x h_θ (x)=θ_0+θ_1 x hθ(x)=θ0+θ1x
对于多个特征量,此时的假设函数为:
h θ ( x ) = θ T x = θ 0 + θ 1 x ( 1 ) + θ 2 x ( 2 ) + … + θ n x ( n ) h_θ (x)=θ^T x=θ_0+θ_1 x^{(1)}+θ_2 x^{(2)}+…+θ_n x^{(n)} hθ(x)=θTx=θ0+θ1x(1)+θ2x(2)++θnx(n)
对这个样本进行简化:
定义 x 0 i = 1 x_0^i=1 x0i=1, 定义参数向量: x = [ x 0 x 1 . . . x n ] n x=\begin{bmatrix} x_0\\x_1\\...\\x_n\end{bmatrix}n x= x0x1...xn n,系数向量: θ = [ θ 0 θ 1 … θ n ] θ=\begin{bmatrix}θ_0\\θ_1\\…\\θ_n\end{bmatrix} θ= θ0θ1θn
有:
h θ ( x ) = θ T x h_θ (x)=θ^T x hθ(x)=θTx
这就是假设函数的向量形式。

梯度下降算法在多元线性回归中的应用

对于假设函数:
h θ ( x ) = θ T x = θ 0 + θ 1 x ( 1 ) + θ 2 x ( 2 ) + … + θ n x ( n ) h_θ (x)=θ^T x=θ_0+θ_1 x^{(1)}+θ_2 x^{(2)}+…+θ_n x^{(n)} hθ(x)=θTx=θ0+θ1x(1)+θ2x(2)++θnx(n)
和损失函数:
J ( θ 0 , θ 1 , … , θ n ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(θ_0,θ_1,…,θ_n)=\frac{1}{2m} ∑_{i=1}^m(h_θ (x^{(i)} )−y^{(i)} )^2 J(θ0,θ1,,θn)=2m1i=1m(hθ(x(i))y(i))2
此时的梯度下降算法:
Repeat{
θ j ≔ θ j − α ∂ J ( θ ) ∂ θ j θ_j≔θ_j−α\frac{∂J(θ)}{∂θ_j} θj:=θjαθjJ(θ)
}
∂ J ( θ ) ∂ θ j \frac{∂J(θ)}{∂θ_j} θjJ(θ)进行等价变形:
Repeat{
θ j ≔ θ j − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j i θ_j≔θ_j−α\frac{1}{m}∑_{i=1}^m(h_θ (x^{(i)} )−y^{(i)}) x_j^i θj:=θjαm1i=1m(hθ(x(i))y(i))xji
}

你可能感兴趣的:(线性回归,机器学习,回归)