关于torch.round可导性问题

先上结论:不可导

import torch

import torch
import torch.nn as nn


class g(nn.Module):
    def __init__(self):
        super(g, self).__init__()
        # self.k = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=1, padding=0, bias=False)

    def forward(self, z):
        a = torch.round(z)
        return a
        # return self.k(a)


c = 2
h = 5
w = 5
z = torch.rand( (1,c , h , w)).float().view(1, c, h, w)*100
z.requires_grad = True
k = g()
r = k(z)
print(r)
r = r.sum()
loss = (r - 1) * (r - 1)
loss.backward()
print("zgrad", z.grad)

tensor([[[[39., 41., 76., 54., 86.],
          [68.,  8., 24., 54., 18.],
          [66., 14., 68., 72., 44.],
          [19., 62., 90., 66., 48.],
          [90.,  3., 97., 84., 99.]],

         [[89., 44., 59., 70., 64.],
          [ 9., 68., 55., 72., 17.],
          [80., 36., 70., 98., 68.],
          [49., 41., 68., 92., 57.],
          [ 4., 46., 16., 19.,  2.]]]], grad_fn=)
zgrad tensor([[[[0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.]],

         [[0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.],
          [0., 0., 0., 0., 0.]]]])

你可能感兴趣的:(Pytorch)