cnn、rnn和lstm的区别

我们都知道cnn和lstm的本质区别是有无记忆功能,也就是联想的能力,cnn只能够识别出一部分的特征,而lstm可以根据上下文得出结论。
但是我产生了一个问题,如何才能从他们的流程中找到区别,问什么不在RNN上直接加一个dropout层,或者将cnn改为时间序列。
首先看一下cnn、Rnn和lstm的原理图:
如下
cnn:

cnn、rnn和lstm的区别_第1张图片

RNN:

cnn、rnn和lstm的区别_第2张图片

lstm:

cnn、rnn和lstm的区别_第3张图片
首先我想谈一下cnn与RNN,为什么不给cnn一个递归?而RNN递归就可以很好的解决问题:
我的思考是,cnn是对每一层卷积的结果的累加效果。并且cnn实际上对处理图片有着很大的作用,其实质上是对某一个特定的特征进行识别。
而RNN则是不断更新的过程,不太准确的说就是一个动态表。
关于lstm和rnn的区别请看下面这位大佬的博文:
https://blog.csdn.net/lanmengyiyu/article/details/79941486传送门

cnn和lstm的区别:
大佬的这篇文章实在是写的太棒了:
我们一起来看一下吧
https://www.sohu.com/a/230801110_609569

你可能感兴趣的:(神经网络)