1,Bayesian prior在模型训练时候对Weight控制、训练速度影响等功能详解
2,Bayesian prior能够提供模型训练速度和质量的数学原理剖析
3,从Word2vec走向GloVe:从Local 信息走向Global+Local信息表示模式
4,GloVe 中的Vector相关性算法
5,GloVe的Co-occurrence matrix解析
6,GloVe的Loss计算
7,神经网络表达信息的三大局限剖析
7,使用Convolutions取代神经网络传统的matrix multiplication操作
8,文本序列的Vector表示及Convolutions的天然契合点分析
9,Parameter sharing背后的数学原理和工程的广泛应用
10,Vector中的参数真的能够很好的表达信息吗?数学原理及工程实践
11,TextCNN架构设计解析
12,CNN-rand数学原理及工程实现
13,CNN-static数学原理及工程实现
14,CNN-non-static数学原理及工程实现
15,CNN-multiple channel数学原理及工程实现
16,处理长短不一的Sentence
17,Kernel设置的数学原理及最佳实践
18,传统模型Attention实现本质:权重分配
19,通过Soft-Search的方式来构建Attention机制及数学原理剖析
20,KQV:Attention-based model based on weight allocation
21,Local-Attention、Global-Attention、Self-Attention对比及最佳实践
22,基于一维匹配的Attentive Reader架构及数学原理剖析
23,基于二维匹配的Impatient Reader架构及数学原理剖析
24,Multi-Hop机制多次提取更充足信息的Attention实现剖析
25,Multi-Hop机制多次提取更充足信息的TimeStep状态推进剖析
26,Pointer network和Attention机制的对比
27,R-NET:借助pointer network和使用gateway机制的attention实现
28,R-NET的Encoding Layer解析
29,R-NET的Question-Passage Matching解析
30,R-NET的Passage Self-Matching解析
31,R-NET的Answer Prediction解析
32,Fully-Aware Fusion Network提出的MRC的Fusion层次划分解析
33,Fully-Aware Fusion Network中的History-of-word机制来更好的理解语意
34,Fully-Aware Fusion Network的Attention机制解析
35,Fully-Aware Fusion Network的Encoding Layer:GloVe、CoVe、POS、NER等
36,Fully-Aware Fusion Network的Multi-level Fusion解析
37,Fully-Aware Fusion Network的Fully-Aware Self-Boosted Fusion解析
38,Fully-Aware Fusion Network的Output layer解析
39,QA-Net的架构之Embedding Encoder Layer解析
40,QA-Net的架构之Context-Query Attention Layer解析
41,QA-Net的架构之Model Encoder Layer解析
42,QA-Net的架构之Output Layer解析