先看看报错的内容
RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.FloatTensor [5, 1]], which is output 0 of AsStridedBackward0, is at version 2; expected version 1 instead. Hint: enable anomaly detection to find the operation that failed to compute its gradient, with torch.autograd.set_detect_anomaly(True).
报错中说,一个需要梯度计算的变量已经被原地修改了,这引发了报错。
torch.set_grad_enabled(True)
然后我使用上述语句开启了梯度跟踪,发现问题出在我的标签计算函数:
def get_label(net, X):
return net(X).reshape((-1, 1))
为什么会出错呢?在这种情况下,由于 label
是从网络输出直接计算得到的,它与网络的计算图相连接。如果在 label
上进行了原地操作(上述的修改形状操作),就可能破坏计算图,使其不可导或其他,总之是导致反向传播时无法正确计算梯度,从而引发报错。
那怎么解决这个问题?将该结果与计算图进行分离就行了,此刻如果再进行反向传播,梯度就不会传播到此处。修改后,代码如下;
def get_label(net, X):
return net(X).detach().reshape((-1, 1))
detach()函数的作用是将数据和计算图分离开来,得到数据部分,与计算图再无瓜葛。
举一个更形象的例子,看下面的代码:
label = net(X) # 计算标签
# 对 label 或 label 的某个部分进行了原地操作,比如:
# label[0, 0] = label[0, 0] * 2
# 或
# label += 1
loss = Loss(label, y) # 计算损失
在这个例子中,label由第一条语句前向传播得到,是直接与网络的输出连在一起,后面我却对label的值进行了手动修改。
这些操作可能导致计算图的结构不完整或不可导,从而影响反向传播的计算。为了避免这样的问题,一般建议避免在计算标签或损失时对张量进行原地操作。如果需要修改张量的值,最好创建一个新的张量,而不是直接在原有张量上进行修改。
下面是我的整个程序,大家也可以调试代码来理解其中的含义:
import torch.nn as nn
import matplotlib.pyplot as plt
import torch
from torch.utils import data
def get_label(net, X):
#计算标签,计算完后必须要使用detach()分离计算图,否则代码将报计算图被修改的错误
return net(X).detach().reshape((-1, 1))
def train(net, trainer, Loss, train_data, train_label, epochs, batch_size):
#将训练数据和标签捆在一起,便于后面一起便利
data_iter = data.DataLoader(list(zip(train_data, train_label)), batch_size=batch_size)
#用来存储数据的变化值,前者为训练轮次,后者为每一轮训练平均损失
draw_x, draw_y = [], []
for epoch in range(epochs):
#每次处理一个批次的数据
for X, y in data_iter:
trainer.zero_grad() # 清除梯度
pre_y = net(X) # 前向传播
loss = Loss(pre_y, y) # 计算损失
loss.backward() # 反向传播,计算梯度
trainer.step() # 更新权重,进行优化
#添加绘图需要的数据
draw_x.append(epoch)
draw_y.append(torch.mean(Loss(net(train_data),train_label)).data)
#设置绘图参数
plt.figure(figsize=(5, 4), dpi=150)#设置图像大小和分辨率
plt.plot(draw_x, draw_y, label='train_loss')#设置要绘制的数据,被给出图例
plt.xlabel('epoch')#设置X轴标题
plt.ylabel('loss')#设置y轴标题
plt.legend()#显示图例
#显示最终图像
plt.show()
def test(net, Loss, test_data, test_label):
loss_sum = torch.zeros_like(test_label)
data_iter = data.DataLoader(list(zip(test_data, test_label)), batch_size=batch_size, shuffle=False)
for X, y in data_iter:
pre_y = net(X) # 前向传播
loss = Loss(pre_y, y) # 计算损失
loss_sum += loss # 累加损失
return torch.sum(loss_sum) / len(loss_sum) # 返回平均损失
def init_weight(m):
if type(m) == nn.Linear:
#权重使用何凯明正态初始化方法进行初始化
nn.init.kaiming_normal_(m.weight)
#偏置使用0偏置
nn.init.zeros_(m.bias)
lr = 0.01 # 学习率
epochs = 100 # 训练轮数
batch_size = 5 # 批大小
shared = nn.Linear(5, 5) # 共享层
net = nn.Sequential(nn.Linear(10, 5), nn.ReLU(), # 输入层到隐藏层1的线性层,ReLU激活函数
shared, nn.ReLU(), # 共享层,ReLU激活函数
shared, nn.ReLU(), # 共享层,ReLU激活函数
nn.Linear(5, 1)) # 从隐藏层到输出层的线性层,无激活函数(线性回归)
#显示真实参数(我们的标签就是用这个参数跑出来的),这也是我们最终需要拟合的参数
for name, param in net.named_parameters():
print(name, param)
#获取随机数作为样本
X = torch.randn((200, 10))
# 通过网络得到真实标签
True_label = get_label(net, X)
#一开始自动随机生成了参数已经被我当作真实参数了,此刻我需要另重新初始化参数
net.apply(init_weight)
#获取训练器
trainer = torch.optim.SGD(net.parameters(), lr=lr)
#获取损失函数
Loss = nn.MSELoss() # 定义损失函数,使用均方误差。
#开始训练模型发
train(net, trainer, Loss, X[:50], True_label[:50], epochs, batch_size=batch_size)
#打印测试损失
print(f'测试损失{test(net, Loss, X[50:], True_label[50:])}')