深度学习:04 神经网络的搭建

首先,这里主要是能够建立一个神经网络,不免会用到torch.nn,所以涉及到的会有讲解,没有用到的就我也不是很了解的。当然在这里我提供了链接Module,方便进行学习。​​​

Containers(容器):

中文翻译为容器,也有称是骨架。在这个内容下面也有许多类,那常用的就是这个Module类

class torch.nn.Module

所有网络的基类,你的模型也应该继承这个类。

nn.Module是PyTorch提供的神经网络类,并在类当中实现了网络各层的定义及前向计算与反向传播机制。实际运用中,如果想实现某个神经网络,只需继承nn.Module,在初始化中定义模型结构与参数,在forward()中编写网络前向过程。

import torch.nn as nn
import torch.nn.functional as F

class Model(nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.conv1 = nn.Conv2d(1, 20, 5)# submodule: Conv2d
        self.conv2 = nn.Conv2d(20, 20, 5)

    def forward(self, x):
       x = F.relu(self.conv1(x))
       return F.relu(self.conv2(x))

这是在定义一个网络的时候所要用到的,你可以把这个当作模板进行套用,这段代码来自help文档里面。

返回包含当前模型所有模块的迭代器

import torch.nn as nn
class Model(nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.add_module("conv", nn.Conv2d(10, 20, 4))
        self.add_module("conv1", nn.Conv2d(20 ,10, 4))
model = Model()

for module in model.modules():
    print(module)

输出:

Model (
  (conv): Conv2d(10, 20, kernel_size=(4, 4), stride=(1, 1))
  (conv1): Conv2d(20, 10, kernel_size=(4, 4), stride=(1, 1))
)
Conv2d(10, 20, kernel_size=(4, 4), stride=(1, 1))
Conv2d(20, 10, kernel_size=(4, 4), stride=(1, 1))

方法不唯一,有多种方式,比如children(),但又有区别。

修改记录:

2022年12月31日初版

你可能感兴趣的:(深度学习杂文,Pytorch学习及实战,深度学习,神经网络,pytorch)