在Pytorch的网络构造代码中,都会看到继承nn.Module类的子类
然后重新编写子类的构造函数__init__()和forward函数 。
这里编写也有一些经验之谈。
1:
一般把conv,dense等函数放到init函数里面,而nn.Functional一般用来连接一些不需要训练参数的层比如relu,bn等等
2:
forward方法是必须要重写的,它是实现模型的功能,实现各个层之间的连接关系的核心。
下面先看一个简单的例子。
本文,先介绍nn.Sequential来构建基本网络。
Abcnet(nn.Module):
def __init__(self, in_channels, out_channels, xxxx xxxx):
super().__init__()
def forward(sefl, xxxxx):
关于super函数的解读,可以参考我的另一篇文章。
nn.Sequential是nn.Module的一个子类,它作为一个有序的容器,网络模块将按照在传入构造器的顺序依次被添加到计算图中执行。
我们直接看看nn.Sequential的源码
def __init__(self, *args):
super(Sequential, self).__init__()
if len(args) == 1 and isinstance(args[0], OrderedDict):
for key, module in args[0].items():
self.add_module(key, module)
else:
for idx, module in enumerate(args):
self.add_module(str(idx), module)
def forward(self, input):
for module in self:
input = module(input)
return input
if len(args) == 1 and isinstance(args[0], OrderedDict) 其判断是否使用OrderedDict.
OrderDict的构造方法是
collections.OrderDict([('a', nn.conv), ('b', nn.pool), ('c', nn.dense)])
如果自己定义了名称的话使用自定义的名称,否则将使用idx自动定义。
再看看nn.Sequential的三种实现
import torch.nn as nn
model = nn.Sequential(
nn.Conv2d(1,20,5), # in_channels=1, out_channels=20, kernel_size=5
nn.ReLU(),
nn.Conv2d(20,64,5),
nn.ReLU()
)
print(model)
print(model[2]) # 通过索引获取第几个层
'''运行结果为:
Sequential(
(0): Conv2d(1, 20, kernel_size=(5, 5), stride=(1, 1))
(1): ReLU()
(2): Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))
(3): ReLU()
)
Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))
'''
这里nn.Sequential里面不是OrderDict
所以运行的是nn.Sequential源码里面的
for idx, module in enumerate(args):
self.add_module(str(idx), module)
注意这个add_module是nn.Module的方法之一,def add_module(self, name, module):
这样的网络构造有一个问题
每一个层是没有名称,默认的是以0、1、2、3来命名,从上面的运行结果也可以看出。
import torch.nn as nn
from collections import OrderedDict
model = nn.Sequential(OrderedDict([
('conv1', nn.Conv2d(1,20,5)),
('relu1', nn.ReLU()),
('conv2', nn.Conv2d(20,64,5)),
('relu2', nn.ReLU())
]))
print(model)
print(model[2]) # 通过索引获取第几个层
#注意model["conv2"] 是错误的
#这其实是由它的定义实现的,看上面的Sequenrial定义可知,只支持index访问。
'''
运行结果为:
Sequential(
(conv1): Conv2d(1, 20, kernel_size=(5, 5), stride=(1, 1))
(relu1): ReLU()
(conv2): Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))
(relu2): ReLU()
)
Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))
'''
import torch.nn as nn
from collections import OrderedDict
model = nn.Sequential()
model.add_module("conv1",nn.Conv2d(1,20,5))
model.add_module('relu1', nn.ReLU())
model.add_module('conv2', nn.Conv2d(20,64,5))
model.add_module('relu2', nn.ReLU())
print(model)
print(model[2]) # 通过索引获取第几个层
这个就是直接用父类nn.Module的add_module(self, name, module)方法,语法上类似keras
reference
https://blog.csdn.net/qq_27825451/article/details/90550890
https://blog.csdn.net/qq_27825451/article/details/90551513