先上结论:不可导
import torch
import torch
import torch.nn as nn
class g(nn.Module):
def __init__(self):
super(g, self).__init__()
# self.k = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=1, padding=0, bias=False)
def forward(self, z):
a = torch.round(z)
return a
# return self.k(a)
c = 2
h = 5
w = 5
z = torch.rand( (1,c , h , w)).float().view(1, c, h, w)*100
z.requires_grad = True
k = g()
r = k(z)
print(r)
r = r.sum()
loss = (r - 1) * (r - 1)
loss.backward()
print("zgrad", z.grad)
tensor([[[[39., 41., 76., 54., 86.],
[68., 8., 24., 54., 18.],
[66., 14., 68., 72., 44.],
[19., 62., 90., 66., 48.],
[90., 3., 97., 84., 99.]],
[[89., 44., 59., 70., 64.],
[ 9., 68., 55., 72., 17.],
[80., 36., 70., 98., 68.],
[49., 41., 68., 92., 57.],
[ 4., 46., 16., 19., 2.]]]], grad_fn=
zgrad tensor([[[[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0.]]]])