机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network

递归神经网络Resursive Network

递归神经网络是一种特殊的RNN组合神经网络。讲时间序列顺序的输入,进行组合输入。
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第1张图片

1. 模型细节

输入的input的维度是以前word的2倍。
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第2张图片
联合输入的V(wA wB) 并不是简单的 V(wA) 和V(wB)相加的和。
V(wA wB) ≠ V(wA) + V(wB)
而是一种新的意思。在下面例子中,not和very本身就没有含义,需要与其他有含义的词集合,才能表达。
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第3张图片

2. 计算步骤

具体那两个词需要组合输入,那就需要NLP中的parsing的方法,依赖分析句子的组成成分。
我们以情感分析为例:
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第4张图片

输入的两个词a,b
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第5张图片
a,b间不能做简单的组合,他们之间是有交叉关系的
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第6张图片
所以我们有:
(1)Recursive Neural Tensor Network
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第7张图片
我们有 X W X T XWX^{T} XWXT, 这样,ab之间就有有交集。
在这里插入图片描述
(2)Matrix-Vector Recursive Network
我们定义输入的word向量中一部分是原始的含义,一部分是它改变其他word的部分。
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第8张图片
下图中,例如not的本身含义没有,是0,但是它的影响其他词的作用是负面的,所以是负数。
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第9张图片
整个两个词的混合过程是:
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第10张图片
(3)Tree LSTM
一般的,典型的LSTM是:
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第11张图片
根据递归神经网络的启发,Tree-LSTM的结构是:输入为两组h和m
机器学习与深度学习系列连载: 第二部分 深度学习(二十五) 递归神经网络Resursive Network_第12张图片

本专栏图片、公式很多来自台湾大学李弘毅老师、斯坦福大学cs229,斯坦福大学cs231n 、斯坦福大学cs224n课程。在这里,感谢这些经典课程,向他们致敬!

你可能感兴趣的:(深度学习,神经网络,深度学习)