E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经翻译笔记
神经翻译笔记
5. 序列到序列模型与注意力机制
文章目录
神经翻译笔记
5.序列到序列模型与注意力机制机器翻译概论编码器-解码器结构集束搜索注意力机制结语其它参考文献备注
神经翻译笔记
5.序列到序列模型与注意力机制本系列笔记从2018年3月开始编写,虽然题名为
TimsonShi
·
2023-03-29 02:45
神经翻译笔记
机器翻译
注意力机制
序列到序列模型
神经翻译笔记
5扩展d. PyTorch学习笔记
文章目录
神经翻译笔记
5扩展d.PyTorch学习笔记PyTorch与张量自动微分简介示例进一步的数学解释示例2.
TimsonShi
·
2022-12-19 00:39
神经翻译笔记
pytorch
神经翻译笔记
3扩展a. 深度学习的矩阵微积分基础
文章目录
神经翻译笔记
3扩展a.深度学习的矩阵微积分基础预备知识矩阵微积分雅可比矩阵的泛化两向量间逐元素运算的导数向量与标量运算的导数向量的求和规约操作链式法则单变量链式法则单变量全微分链式法则向量的链式法则激活函数的梯度神经网络损失函数的梯度
神经翻译笔记
TimsonShi
·
2022-11-08 18:57
神经翻译笔记
矩阵微分
神经翻译笔记
6. 卷积神经网络及其在机器翻译中的应用
文章目录
神经翻译笔记
6.卷积神经网络及其在机器翻译中的应用CNN的基本原理卷积卷积的定义CNN中的基本二维卷积操作对二维卷积操作的扩展二维卷积总结一维卷积为什么使用卷积池化典型CNN结构CNN在机器翻译中的应用
TimsonShi
·
2020-12-24 22:50
神经翻译笔记
卷积神经网络
机器翻译
神经翻译笔记
2. Log-linear语言模型
文章目录
神经翻译笔记
2.Log-linear语言模型模型简介Softmax的计算问题模型示例学习模型参数损失函数使用随机梯度下降(SGD)进行优化损失函数对参数的偏导数
神经翻译笔记
2.Log-linear
TimsonShi
·
2020-07-12 16:43
神经翻译笔记
神经翻译笔记
3扩展e第1部分. Word2Vec原理及若干关于词向量的扩展知识
文章目录
神经翻译笔记
3扩展e第1部分.Word2Vec原理及若干关于词向量的扩展知识Word2vec的参数学习连续词袋模型(CBOW)上下文仅有一个单词的情况隐藏层到输出层权重的更新输入层到隐藏层权重的更新上下文有多个单词的情况
TimsonShi
·
2020-06-29 23:51
神经翻译笔记
神经翻译笔记
3扩展d. 神经网络的泛化
文章目录
神经翻译笔记
3扩展d.神经网络的泛化数据增强参数范数惩罚$L^2$正则化$L^1$正则化在TensorFlow中使用参数范数惩罚提前终止方法概览提前终止与$L^2$正则的关系集成方法集成方法概览参数平均
TimsonShi
·
2020-06-29 23:50
神经翻译笔记
神经翻译笔记
3扩展b. 自动微分
文章目录
神经翻译笔记
3扩展b.自动微分引言自动微分不是什么自动微分不是数值微分自动微分不是符号微分自动微分及其主要模式前向模式(Forwardmode)二元数后向模式(Backwardmode)自动微分与机器学习基于梯度的优化神经网络
TimsonShi
·
2020-06-29 23:49
神经翻译笔记
神经翻译笔记
3扩展c. 神经网络的初始化
文章目录
神经翻译笔记
3扩展c.神经网络的初始化基本初始化方法LeCun初始化Xavier初始化(Glorot初始化)何恺明初始化(He初始化)前向视角反向视角不要使用常数初始化小结参考文献
神经翻译笔记
3
TimsonShi
·
2020-06-29 23:49
神经翻译笔记
神经翻译笔记
2扩展a. 损失函数
文章目录
神经翻译笔记
2扩展a.损失函数针对回归问题的损失函数均方误差函数平均绝对值误差函数Huberloss关于回归问题的损失函数小结针对分类问题的损失函数交叉熵损失函数概述Softmax交叉熵损失函数
TimsonShi
·
2020-06-29 23:48
神经翻译笔记
神经翻译笔记
4扩展d. 迁移学习概述与前BERT时代的NLP预训练模型
神经翻译笔记
4扩展d.迁移学习概述与前BERT时代的NLP预训练模型迁移学习多任务学习(MTL)辅助任务为什么多任务学习能够有效顺序迁移学习终生学习(Lifelonglearning)领域适配基于表示的方法领域相似度数据加权和数据选择自标注技术前
TimsonShi
·
2020-06-29 23:48
神经翻译笔记
神经翻译笔记
4扩展c. 2017-2019年间RNN和RNN语言模型的新进展
文章目录
神经翻译笔记
4扩展c.2017-2019年间RNN和RNN语言模型的新进展QuasiRNNFS-RNNSkipRNN高秩RNN语言模型MoSIndRNNON-LSTMMogrifierLSTM参考文献
神经翻译笔记
TimsonShi
·
2020-06-29 23:48
神经翻译笔记
神经翻译笔记
4扩展b. RNN的正则化方法
文章目录
神经翻译笔记
4扩展b.RNN的正则化方法层归一化对dropout的扩展集大成的方法:AWD-LSTM正则化方法不同形式的dropout变长的反向传播嵌入共享嵌入维度与隐藏层维度分离激活单元正则化与时序激活单元正则化优化方法其它技术与实验参考文献
神经翻译笔记
TimsonShi
·
2020-06-29 23:18
神经翻译笔记
正则化
rnn
神经翻译笔记
4扩展a第二部分. RNN在TF2.0中的实现方法略览
神经翻译笔记
4扩展a第二部分.RNN在TF2.0中的实现方法略览文章目录
神经翻译笔记
4扩展a第二部分.RNN在TF2.0中的实现方法略览相关基类`tf.keras.layers.Layer``recurrent.DropoutRNNCellMixin
TimsonShi
·
2020-06-29 23:17
神经翻译笔记
神经翻译笔记
4扩展a第一部分. RNN在TF1.x中的实现方法略览
神经翻译笔记
4扩展a第一部分.RNN在TF1.x中的实现方法略览RNNcell的实现`keras.layers.Layer``layers.Layer``nn.rnn_cell.RNNCell``LayerRNNCell
TimsonShi
·
2020-06-29 23:17
神经翻译笔记
神经翻译笔记
4. 循环神经网络(RNN)
神经翻译笔记
4.循环神经网络(RNN)普通RNN(VanillaRNN)RNN的反向传播事与愿违的RNN基于门控单元的RNN长短期记忆网络(LSTM)门控循环单元(GRU)双向的RNN与更深的RNN双向
TimsonShi
·
2020-06-29 23:16
神经翻译笔记
神经翻译笔记
3扩展e第2部分. Subword
文章目录NMTTutorial3扩展e第2部分.Subword序言分词方法介绍BPE原理与算法使用Morfessor术语方法模型与损失函数似然先验训练与解码算法参数初始化全局维特比算法局部维特比算法递归算法似然权重与半监督学习fastText算法原理实现参考文献附录MAP估计HMM模型马尔可夫模型马尔可夫链隐马尔可夫模型求解似然问题:前向算法求解解码问题:维特比算法求解学习问题:前向-后向算法(B
TimsonShi
·
2020-06-21 14:17
神经翻译笔记
上一页
1
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他