torch.nn.Conv1d使用详解

pytorch卷积层的介绍:
torch.nn.Conv1d介绍:
torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)
in_channels(int) – 通道,在文本分类中,即为词向量的维度
out_channels(int) – 卷积产生的通道。有多少个out_channels,就需要多少个1维卷积
kernel_size(int or tuple) - 卷积核的尺寸,卷积核的大小为(k,),第二个维度是由in_channels来决定的,所以实际上卷积大小为kernel_size*in_channels
stride(int or tuple, optional) - 卷积步长
padding (int or tuple, optional)- 输入的每一条边补充0的层数
dilation(int or tuple, `optional``) – 卷积核元素之间的间距
groups(int, optional) – 从输入通道到输出通道的阻塞连接数
bias(bool, optional) - 如果bias=True,添加偏置

import torch
import torch.nn as nn


conv1 = nn.Conv1d(in_channels=256,out_channels=100,kernel_size=2) # 词向量维度256,最后输出结果维数是100维(100个过滤器)
input = torch.randn(32,256,35)

out = conv1(input)

print(out.size())
# torch.Size([32, 100, 34]) # batch_size为32,过滤器个数为100,每个过滤器输出的结果是34维的[(35+0-2)/1]+1=34


你可能感兴趣的:(pytorch,pytorch,深度学习,cnn)