关于深度学习的滞后性问题

2019/12/14
首先,这个问题的提出,是当时最开始学习LSTM的时候,看到了一个博客[1],他的实施方案;其实他就是从文章[2]翻译过来的,但是自己修改了一些代码,可以看文章[2]的内容,他做出来的图像有明显的滞后性,但是文章[1]就没有;文章[1]把最后的代码给改了,就是说最后的时候,实际上是他画图的时候故意错位了。
所以这里反应出来一个问题:LSTM存在滞后性。[1]中评论还说,可能是最后一个输入值的权值太大了,这里不是非常理解。
然后我去搜索了这个问题,发现并没有非常好的解释。博客[1]的作者在评论中提到,这种小样本的数据就是出现这种滞后性严重的问题,利用大数据集可以解决;
文章[3]说可能因为是这个数据不是平稳的,他通过平稳数据之后得到的较好的内容;问答[4]的回答是通过改变窗口的大小还有调整网络结构来解决,我稍微修改了一下这个东西,发现有改进,但是这个数据量的确太小了,可能意义也不大。

所以关于这个问题,可能解决的办法就是:

  1. 对序列进行平稳
  2. 改变参数
    具体原因还得再看看资料

看下面这个哥们的说法[5]:


关于深度学习的滞后性问题_第1张图片
滞后

参考文献

[1]简单粗暴LSTM:LSTM进行时间序列预测
[2]time-series-prediction-lstm-recurrent-neural-networks-python-keras/
[3]基于EMD分解与LSTM的空气质量预测
[4]lstm-prediction-result-delay-phenomenon
[5]用 LSTM 做时间序列预测的一个小例子

你可能感兴趣的:(关于深度学习的滞后性问题)