Pytorch的nn.model

nn.model是所有网络(net)层的父类,我们自己如果要实现层的话,需要继承该类。

比如:
我们自己实现一个线性层(MyLinear)

        class MyLinear(nn.Model):
                  def __init__(self, input, output):
                        super(MyLinear, self).__init__()
                        self.w = nn.Parameters(torch.randn(output, input))
                         self.b = nn.Parameters(torch.randn(output))
                  def forward(self, x):
                         x = [email protected]() + self.b
                          return x
  1. 对于上面个的代码,很明显,我们需要优化的参数是w和b,我们初始化的时候,没有指定需要梯度信息,这是为什么?
    因为,nn.Parameters会自动加上梯度信息,也即是,我们把这梯度信息交给网络来管理,这样,在给优化器传递参数的时候,可以直接net.parameters(),就直接可以把所有的参数收集到了,如果我们自己管理的话,net.parameters()就无法收集到。特别,我们使用nn.Sequential的时候,把我们自己自定义的网络加到容器的时候,如果收集不到自己定义的网络中的梯度信息的时候,网络就没有办法优化。所以,我们自己定义网络的时候,一定要把网络中需要优化的参数交给网络去管理。
2. def forward(self, x):
           x = [email protected]() + self.b
           return x

这里的x是什么?
我们都知道,网络是要堆叠起来的,这里的x是上一层网络的输出

  1. nn.Sequential是什么,为什么需要?
    当我们自己手动定义一个网络的时候,举例来说,我们要处理图片,我们需要一层卷积,一层池化,再次卷积再次池化的四个操作,我们在init中定义
def __init__(self, input, output):
                  super(MyLinear, self).__init__()
                  self.conv1 = ****
                  self.pool1 = ***
                  self.conv2 = ****
                  self.pool2 = ***

我们就需要在

            def forward(self, x):
                   x = [email protected]
                   x = self.pool1(x)
                   x = [email protected]
                   x = self.pool2(x)
                   return x

试想一下,如果网络层数很多,我们就需要一一处理,很繁琐

nn.Model提供了很多类,比如激活函数,卷积操作.......比较方便,拿来就可以用

nn.Model还可以嵌套,nn.Model可以打印出每一层的信息,很方便查看各个层的权值,这样我们就可以在训练的时候查看信息,只需要调用net.named_parameters()就可以了。

  1. nn.Model的模型的保存操作?
      net.save(net.state_dict(),"./ckpt.mdl")

保存操作

      net.load_state_dict(torch.load("./ckpt.mdl"))

读取保存的结果

你可能感兴趣的:(Pytorch的nn.model)