2018年nlp重大进展:关系推理,从图结构入手

神经网络与关系推理

author:佟学强

abstract

让机器实现逻辑推理还差得远。在Ai领域里,目前统计学派和联结主义学派比较盛行,但是类脑学科还没突破,所以当下的Ai都是弱Ai。目前取得突破的基本都是在视觉和语音领域,nlp的进展非常缓慢。众所周知的人类两种智能归纳总结和演绎推理,联结主义只是解决了归纳总结问题,而在nlp中联结主义集中表现在文字高阶特征的抽取上,比如目前流行的w2v,textCNN,LSTM等等。文字的语义理解,需要更加高阶的智能,即演绎推理能力,包括语义的联想,上下文关联,因果关系推理,语义的组合泛化(以有限的知识,概念作为基,然后进行语义组合形成新的概念、知识,机器能够推导出新的关系,逻辑)。所以nlp的道路,任重道远。

更进一步地讲,上帝创造这个世界的同时也创造了规则,然后上帝撒手,让万事万物按照规则进化,运转。牛顿晚年研究神学得到启示:他所发现的规则是上帝制定的。人可以发现规则,事物之间总是存在关联,最极端的情况是两个事物之间没有关联以及一个事物与其他所有事物都存在关联,大部分情况是介于两者之间。从特殊到一般的归纳总结能力,人类在幼儿时期就已经具备了,这种学习能力有助于我们认识大自然的规则。虽然经验主义对人类的学习起到了很大的作用,但是显然人类在婴幼儿时期的学习,并不依赖大量的先验知识,窥破这种机制对目前的AI将起到非常大的推进作用。比如对于幼儿,他不理解下跌(下落)这个词的含义,我把一个皮球拿到他眼前,然后演示皮球的自由落体运动,最后我告诉他,这个过程叫下跌。过一会儿,我写下这么一句话:近期由于中美贸易战,股市下跌了(假设他之前理解了什么叫股市)。那么当他看到下跌这个词时,会马上联想起之前我给他演示的自由落体运动,于是他理解了这句话的含义。看到了吧,这才是真正的AI!小球下落的神经回路与股市下跌具有极高的相似度,人脑会自动把下跌抽象化,并且人脑会推断,不光皮球可以下跌,其他的同类都可以下跌,可以衍生出很多的组合。遇到陌生的事物,进行语义关联和组合泛化是基本的思路,这本是逻辑推理的一种形式。也就是说,上帝创造世界的时候,只是创造了这个世界的基,这些基按照规则会创造出无限的可能性。这个组合泛化能力是当今的神经网络最缺失的。现在的神经网络犹如一个智商非常低的笨蛋,体型巨大,需要喂给海量数据,不能推理,而事实上,人类的学习根本不是这个样子。我们更应该关注,如何让机器学会有限的经验和知识,然后运用规则进行推理。显然,AI理论需要重塑,nlp的道路任重道远!

但是本书并不打算全部论述逻辑推理,而是先从更加基础的领域阐述当下比较成功的联结主义,然后逐步过渡到逻辑推理,最后到两者的统一。本书不仅有广度,有深度,而且还会反思当下的AI。本书尤其重视AI中的数学知识,会涉及统计学,线代,矩阵论,微积分,泛函数分析,这些都是准确深刻理解当下AI算法的基础,并且会思考这些算法的缺陷以及改进,让你对Ai的理解提升档次。因此本书的篇幅会非常地长,但保证没有废话,也不是简单的应用级别的书籍。本着一以贯之的原则,最后会附上代码,安排如下:

一、联结主义概述(简单论述,不讲废话)

二、深度学习的激活函数性能对比,参数优化方法:①BP算法②激活函数③优化方法:遗传算法与模拟退火(重点大篇幅论述)

三、关于空间和时间的归纳偏置:CNN和LSTM。其中CNN包括:①数学上的卷积,卷积与傅立叶变换的关系,傅立叶变换(重点论述)②图像中的卷积③textCNN在nlp中的应用(包括代码)④CNN的缺陷及改进(重点论述)。LSTM部分:①从数学角度看RNN到LSTM的演化过程(重点论述)②LSTM的缺陷及改进:self_attention中的线性代数

四、图卷积神经网络:①为什么需要图卷积?②基础知识:拉普拉斯矩阵,傅立叶变换,pagerank算法③空间图卷积和谱图卷积(无向图和有向图推理)

五、换一个角度理解上述算法(神经规则推理):关系,实体,规则,推理算法,知识图谱(包括transD向量化以及最近的改进),神经网络和图结构的统一,总结问题

六、常见深度学习的实例代码

 1.联结主义概述

1.1

 

2.深度学习

2.1 经典的BP算法

 

2.2 激活函数性能对比

 

2.3 参数优化

2.3.1 SGD与自适应学习,5折交叉验证理论

 

2.3.2 你更需要遗传算法与模拟退火

 

3.关于空间和时间的归纳偏置

3.1经典的CNN

3.1.1 数学上的卷积,卷积与傅立叶变换的关系,傅立叶变换

 

3.1.2 图像中的卷积

3.1.2.1 图像卷积

 

3.1.2.2 CNN中的padding计算方法

3.1.3 把CNN引入到nlp中

3.1.4 CNN的缺陷以及改进方法

 

3.2 LSTM

3.2.1 RNN,从RNN到LSTM的演化

 

3.2.2 LSTM的缺陷以及改进

3.2.2.1 attention的种类:外部和self

 

4.图卷积神经网络

4.1为什么需要GCN?

 

4.2 基础知识:拉普拉斯矩阵,傅立叶变换,pagerank算法

4.2.1 拉普拉斯矩阵

 

4.2.2 pagerank算法

 

4.3 空间图卷积

 

4.4 谱图卷积

4.4.1 无向图的推理

 

4.4.2有向图的推理

 

5.换一个角度理解现有的算法:你更需要神经规则推理

5.1 总述

 

5.2 关系,实体,规则

 

5.3 关于GN block以及与CNN,RNN的关系对比

 

5.4 算法的统一

 

5.5 知识图谱的向量化:transD以及改进

 

5.6 还有什么没有解决?

 

6.常见深度学习的实例代码

你可能感兴趣的:(nlp语义理解,AI基础理论,关系推理,图模型)