机器学习:Recurrent Neural Network-RNN

应用举例

机器学习:Recurrent Neural Network-RNN_第1张图片
机器学习:Recurrent Neural Network-RNN_第2张图片
机器学习:Recurrent Neural Network-RNN_第3张图片
如果有很多词汇的时候,one-encode会导致很长,可以将不常见的归类到other,也可以用n-gram进行编码

机器学习:Recurrent Neural Network-RNN_第4张图片
机器学习:Recurrent Neural Network-RNN_第5张图片
输出的是一个概率分布

机器学习:Recurrent Neural Network-RNN_第6张图片
相同的词得到不同的结果,需要网络具有记忆,RNN网络的设计就是使得网络具有部分的记忆能力。

机器学习:Recurrent Neural Network-RNN_第7张图片
机器学习:Recurrent Neural Network-RNN_第8张图片
机器学习:Recurrent Neural Network-RNN_第9张图片
存在memory中的内容会不同,输出也会不同
机器学习:Recurrent Neural Network-RNN_第10张图片

深层次的网络也是可以的

机器学习:Recurrent Neural Network-RNN_第11张图片

不同的变形

机器学习:Recurrent Neural Network-RNN_第12张图片

  • jordan network是将输出放入memory
  • elman network是将中间放入memory
  • jordan network一般而言要比elman network要好

机器学习:Recurrent Neural Network-RNN_第13张图片
双向的RNN:考虑从前到后,从后到前。


LSTM

  • 输入门中,input-gate,打开还是关闭,是自己学习得到。
  • 输出门中,output-gate,外界是否可以读出来,打开的时候才能读出来,也是自己学习得到。
  • 遗忘门中,forget-gate,什么时候把memory里面的值遗忘掉,也是自己学习得到的。
    机器学习:Recurrent Neural Network-RNN_第14张图片
    机器学习:Recurrent Neural Network-RNN_第15张图片
    机器学习:Recurrent Neural Network-RNN_第16张图片
    c’是新的memory中存的内容。
    遗忘门:打开的时候是记得,关闭的时候是遗忘。
    机器学习:Recurrent Neural Network-RNN_第17张图片
    人工RNN例子
    机器学习:Recurrent Neural Network-RNN_第18张图片
    机器学习:Recurrent Neural Network-RNN_第19张图片
    机器学习:Recurrent Neural Network-RNN_第20张图片
    4个input产生一个output,参数量是一般的网络的4倍。
    机器学习:Recurrent Neural Network-RNN_第21张图片
    机器学习:Recurrent Neural Network-RNN_第22张图片
    机器学习:Recurrent Neural Network-RNN_第23张图片
    机器学习:Recurrent Neural Network-RNN_第24张图片

你可能感兴趣的:(机器学习,rnn)