nn.LSTM()关键参数,torch.squeeze()和torch.unsqueeze()

初始化

config是配置文件

self.lstm=nn.LSTM(config.hidden_size,config.rnn_hidden_size,config.num_layers,batch_first=True,dropout=config.dropout,bias=True,bidirectional=True)

参数

input_size :输入数据的形状
hidden_size:LSTM网络每层节点的LSTM节点数量
num_layer:LSTM网络的网络层数
bias:LSTM是否包含bias
batch_first:输入数据的第一个维度是否代表batch编号
dropout:dropout比例
bidirectional:是否使用双向LSTM网络
**如果 bidirectional 参数为True,则LSTM的的输出的最后一个维度为 input_size*2,因为双向LSTM会将两个LSTM网络的输入拼接在一起**

**

nn.softmax()

**
参考:

https://blog.csdn.net/weixin_40875443/article/details/110528581

**

torch的tensor加维度和减维度,torch.squeeze()和torch.unsqueeze()

**

torch.squeeze(input, dim = None, out = None)

在默认参数条件下,如果input的某些维度大小为1,经过压缩后会把相应维度给删除;如果给定了dim的值且对应维度上的值不为1,则不对原tensor进行降维,只能是对应维度的值为1时才会降维。

import torch
x = torch.arange(6).view(2,1,3)
x_1 = torch.squeeze(x) #删除所有维度中等于1的维度
x_2= torch.squeeze(x,1)#删除第二维  因为维度从0(第一维)开始
#维度中没有等于1的维度,就保持原tensor不变

对应的,torch.unsqueeze()函数是一个升维的函数,需要给出指定位置来增加维度。

import torch
a = torch.tensor([ 24,  44,  91, 115, 133])
print(a.unsqueeze(1))

tensor([[ 24],[ 44],[ 91],[115], [133]])

你可能感兴趣的:(学习,lstm,深度学习,rnn)