RuntimeError: one of the variables needed for gradient computation has been modified by an inplace o

又一个折腾了我半天(真·半天)的bug,
而且我还弄了俩不同的导致这错误的bug:
错误原因就两种,一种是nn.ReLU()的inplace,另外一种是赋值的时候出错,如a += 1要改为a = a + 1等;
(1)

self.relu = nn.ReLU(inplace=True)

得把某些地方的inplace改为False,否则不支持反向传播(挺神奇的)
(2)

attention = self.softmax(attentions)

检查这种bug有一种专门的方法,就是在后面加个.clone()

attention = self.softmax(attentions).clone()

你可能感兴趣的:(神奇的bug,pytorch)