神经网络学习算法中梯度下降简洁证明

已知光滑函数 C ( V 1 , V 2 ) , ∥ △ V ∥ = ε 是一个趋近于 0 正数,求证使得函数 △ C 尽可能小时,则 △ V = − η ▽ C ,其中 η = ε / ∥ ▽ C ∥ 。 已知光滑函数C(V_1, V_2),\parallel \bigtriangleup V \parallel = \varepsilon是一个趋近于0正数 ,求证使得函数\bigtriangleup C尽可能小时,则\bigtriangleup V = -\eta \bigtriangledown C, 其中\eta = \varepsilon/\parallel \bigtriangledown C \parallel。 已知光滑函数C(V1,V2)V∥=ε是一个趋近于0正数,求证使得函数C尽可能小时,则V=ηC,其中η=ε/C

证明:
∵ △ C = ▽ C △ V = ∥ ▽ C ∥ ∗ ∥ △ V ∥ c o s θ c v , 其中 c o s θ c v ∈ [ − 1 , 1 ] \because \bigtriangleup C = \bigtriangledown C \bigtriangleup V = \parallel \bigtriangledown C \parallel*\parallel \bigtriangleup V \parallel cos\theta _{cv}, 其中cos\theta _{cv} \in [-1, 1] C=CV=∥CVcosθcv,其中cosθcv[1,1]

∴ 当 △ C 尽可能小时, c o s θ c v = − 1 ,此时 △ C = ∥ ▽ C ∥ ∗ ∥ △ V ∥ = ∥ ▽ C ∥ ∗ ε ∗ − 1 \therefore 当\bigtriangleup C尽可能小时,cos\theta _{cv} = -1,此时\bigtriangleup C = \parallel \bigtriangledown C \parallel * \parallel \bigtriangleup V \parallel= \parallel \bigtriangledown C \parallel * \varepsilon* -1 C尽可能小时,cosθcv=1,此时C=∥CV∥=∥Cε1

又 ∵ 由题意得 △ V = − η ▽ C 又\because 由题意得\bigtriangleup V = -\eta \bigtriangledown C 由题意得V=ηC

∴ △ C = ∥ ▽ C ∥ ∗ ε ∗ − 1 = − η ∗ ∥ ▽ C ∥ 2 \therefore \bigtriangleup C = \parallel \bigtriangledown C \parallel * \varepsilon* -1 = -\eta*\parallel \bigtriangledown C \parallel^{2} C=∥Cε1=ηC2

即 η = ε / ∥ ▽ C ∥ 即 \eta = \varepsilon /\parallel \bigtriangledown C \parallel η=ε/C

在梯度下降中 η \eta η为学习率,此时更新规则为 V = V + △ = V = V − η ▽ C V = V+\bigtriangleup = V = V -\eta \bigtriangledown C V=V+=V=VηC

你可能感兴趣的:(PyTorch入门,算法,神经网络,学习)