LSTM(units, input_shape=(window, feanum), return_sequences=True/False)

LSTM(units, input_shape=(window, feanum), return_sequences=True/False)

1.units:指的并不是一层LSTM有多少个LSTM单元,实际代表的是LSTM单元内的隐藏层的尺寸;对于LSTM而言,每个单元有3个门,对应了4个激活函数(3个sigmoid,一个tanh)。假如units=32,也就是说有4个神经元数量为32的前馈网络层。

计算过程:假如序列长度为5(5个时间点),维度为10(每个时间点的特征数量),对于任意一个时间点1×10,输出Y=X(1×10)W(10×32),这里X为(1,10)的向量,W为(10,32)的矩阵,所以运用矩阵乘法,将10维的X转化为32维的向量

2.input_shape = (window, feanum)中代表输入集的数据量,=None代表模型输入集的数据量不限制(即可以是过去任意天的工作量),feanum在这里代表只有工作量的维度

低版本的keras中模型构建的方式采用参数input_dim和output_dim表式输入维度和输出维度,在高版本中采用此法会出现红色的warning。因为,在高版本中已经采用input_shape和units,代替原来的input_dim和output_dim,以避免红色的warning信息

3.return_sequences:为True意味着返回多个单元短期的输出结果,为False则只返回一个单元的输出结果
————————————————
版权声明:本文为CSDN博主「xinyihhh」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/xinyihhh/article/details/122102803

你可能感兴趣的:(python)