深度学习——梯度

一、初识梯度

import torch
x = torch.arange(4.0)
print(x)
x.requires_grad_(True)
y = 2 * torch.dot(x, x) #torch.matmul(x, x)
print(y)
y.backward()
print(x.grad)
print(x.grad == 4*x)

输出:

tensor([0., 1., 2., 3.])
tensor(28., grad_fn=)
tensor([ 0.,  4.,  8., 12.])
tensor([True, True, True, True])

解释:

1.x.requires_grad_(True)

计算y关于x的梯度之前,需要一个地方来存储梯度,这个函数就是申请储存梯度的地方的,我们使用 x.grad 来访问这个梯度

2.y.backward( )

上述代码调用了反向传播函数来自动计算y关于x每个分量的梯度,这个函数就是用来求导的

3.grad_fn=

因为它是隐式构造的计算图,所以它有一个求梯度的函数“grad_fn=”存在这个地方告诉你y是由x计算得来的

详细解释:requires_grad,grad_fn,grad的含义及使用

二、梯度详解

课程:这一定是我见过B站最简单讲得最清晰的【梯度】教程!带你快速了解神经网络/激

1.梯度:向量对于每一个方向上的偏微分,它具有方向和大小。梯度的方向代表了函数值越来越大的方向,梯度的长度代表函数变化的趋势。

2.通过梯度搜索极小值:

梯度方向:指从中心往四周,值越来越大的方向

深度学习——梯度_第1张图片

 

 

你可能感兴趣的:(动手学深度学习,深度学习,python,人工智能)