E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nmt
NMT
、enc-dec的一些笔记
传统的Encoder-Decoder1、在编码的时候,接收输入X=⟨x1,x2,…,xT⟩X=⟨x1,x2,…,xT⟩,生成contextvectorCC2、训练阶段,在解码的时候2.1、从CC出发预测ŷ1y^1,再依次用ŷi−1y^i−1预测ŷiy^i,即使用预测的ŶY^而不是真实值YY,这样的做法就是让模型自己去学习。这样容易产生误差累积的问题,导致模型学习收敛比较慢。2.2、如果每次
Fence607
·
2018-04-16 17:27
论文笔记
阿里巴巴机器翻译团队:将TVM引入TensorFlow中以优化GPU上的神经机器翻译
摘要:神经机器翻译(
NMT
)是自动翻译的端到端方法,这个方法具有克服传统短语翻译系统缺点的潜力。阿里巴巴机器翻译团队在此基础上,利用TVM又有了新的突破!
阿里云云栖社区
·
2018-03-27 00:00
tensorflow
优化
深度学习
gpu
Neural+machine+translation+with+attention+-+v3
YouwillbuildaNeuralMachineTranslation(
NMT
)modeltotranslatehumanreadabledates(“25thofJune,2009”)intomachinereadabledates
tyxr5
·
2018-03-12 19:02
吴恩达深度学习作业收集
关于注意力机制(attention mechanism)在神经机器翻译领域的两篇论文的理解
近来研究通过RNN的Seq2Seq模型处理文本正则化(TextNormalization)时准备用到注意力机制,因此拜读了注意力机制在自然语言处理的神经机器翻译(以下简称
NMT
)的两篇论文:《NEURALMACHINETRANSLATIONBYJOINTLYLEARNINGTOALIGNANDTRANSLATE
吃块沙琪玛
·
2018-03-12 18:06
深度学习
直播实录 | 非自回归神经机器翻译 + ICLR 2018 论文解读
在本期PhDTalk中,来自香港大学的博士生顾佳涛,向大家介绍了他们在加速神经机器翻译(
NMT
)方向的一些进展。
Paper_weekly
·
2018-03-12 00:00
香港大学顾佳涛:非自回归神经机器翻译 | 直播预告
这是第24期「PhDTalk」在本期PhDTalk中,来自香港大学的博士生顾佳涛,将向大家介绍他们在加速神经机器翻译(
NMT
)方向的一些进展。本次Talk分为三部分:第一部分将以Goo
Paper_weekly
·
2018-03-05 00:00
Neural machine translation with attention - v3 参考答案
YouwillbuildaNeuralMachineTranslation(
NMT
)modeltotranslatehumanreadabledates(“25thofJune,2009”)intomachinereadabledates
wangyunpeng_bio
·
2018-03-04 21:32
coursera
机器翻译学术视野-2018.03.02
1,Goingbeyondzero-shotMT:combiningphonological,morphologicalandsemanticfactors本文将多语种词汇的多种特征融入到
NMT
编码器的
ThINgCH
·
2018-03-02 17:20
机器翻译汇总
斯坦福大学的NLP机器翻译的项目https://nlp.stanford.edu/projects/
nmt
/tf中的
NMT
项目:https://github.com/tensorflow/
nmt
最新进展
kula147
·
2018-02-02 10:24
学习
神经网络机器翻译总结
神经网络机器翻译(NeuralMachineTranslation,
NMT
)是最近几年提出来的一种机器翻译方法。
littlely_ll
·
2018-01-13 10:30
自然语言处理
自然语言处理
论文笔记:Learning to Parse and Translate Improves Neural Machine Translation
提出了一个叫做
NMT
(NeuralMachineTranslation)+RNNG(RecurrentNeuralNetworkGrammars)的混合模型,这个模型如字面意思将注意力机制的
NMT
和RNNG
坂本龙一
·
2017-12-11 10:42
轰炸理解深度学习里面的encoder-decoder模型
是深度学习中非常常见的一个模型框架,比如无监督算法的auto-encoding就是用编码-解码的结构设计并训练的;比如这两年比较热的imagecaption的应用,就是CNN-RNN的编码-解码框架;再比如神经网络机器翻译
NMT
Microstrong0305
·
2017-12-08 16:02
机器学习
20160523 人生不易,且行且珍惜
昨天去RX的活动,见了
NMT
2.0和JZ,聊得很开心吃得也很开心,然后继续想剧本。想到晚上出了一个新梗,是抛下一切桎梏想出来的。所以之前一定要限定在某一个空间的写法还是蛮束缚的。今早,困。
橘子想要吃月亮
·
2017-12-03 05:25
第44周学习总结——im2txt代码实践
主要花费的时间部分为:做数据集7+个小时,整合im2txt与
NMT
代码3+个小时。做数据集以往做图片的数据集,应该使用TFRecord格式来进行读取。
liuchungui
·
2017-11-05 23:25
无监督神经机器翻译:仅需使用单语语料库
近日,有研究者提出一种无监督新方法,无需使用平行语料库,使用去噪和回译的步骤构建
NMT
系统。该系统在WMT2014法语-英语和德语-英语翻译中分别取得了15.56和10.21的BLEU得分。
机器之心V
·
2017-11-04 06:46
探究神经机器翻译中的注意力机制:指哪儿打哪儿,还是指哪儿打一片?
神经机器翻译近来广受关注,基于注意力的
NMT
逐渐流行。但是,很少有研究分析注意力到底在「注意」什么?它与对齐一样吗?本文将对此进行分析。
机器之心V
·
2017-10-24 20:53
Linux入门学习——网络基础知识
255.255.255.0172.25.0.10:ip地址255.255.255.0:子网掩码子网掩码255位对应的ip位为网络位子网掩码0对应的ip位为主机位二.配置ip>1.图形界面nm-connection-editor2.文本化图形
nmt
ZJJ_5346
·
2017-10-24 09:09
[深度学习] (3)- Keras实现一个简单的翻译器( 从数字到对应的英文 )
摘要来搞
NMT
啊哈哈哈哈本文用Keras实现了一个简单的Seq2Seq翻译器(从数字到对应的英文),参考以下文章http://blog.csdn.net/mmc2015/article/details/
LeYOUNGER
·
2017-09-28 17:20
机器学习
自然语言处理
神经机器翻译(
NMT
)的一些重要资源分享
教程:·由ThangLuong编写的
NMT
教程-这是一个简短的教程,循序渐进的介绍神经机器翻译的原理。但稍微令人感到失望的是,没有详细记录基础实验的运行和评估情况。
lqfarmer
·
2017-09-14 16:56
深度学习
深度学习与NLP
深度学习优化策略汇总
深度学习与机器翻译
迁移学习与多任务学习
机器翻译基础
本文首先将简要介绍传统的统计机器翻译方法以及神经网络在机器翻译中的应用,然后介绍
NMT
中基本的“编码-解码”框架(Encoder-Decoder)。
刷街兜风
·
2017-09-03 22:53
深度学习
Tensorflow 机器翻译
NMT
笔记 1 快速上手
开始首先,这篇博客基本基于:https://github.com/tensorflow/
nmt
/的内容来的,作为个人学习的笔记,也当做一个博客内容分享。
MebiuW
·
2017-09-03 21:52
github
NMT
Tensorflow
seq2seq
机器翻译
深度学习
神经机器翻译中的领域自适应问题 Domain adaptation for
NMT
相关论文:1.StanfordNeuralMachineTranslationSystemsforSpokenLanguageDomains.Minh-ThangLuongandChristopherD.Manning.http://www.statmt.org/OSMOSES/Stanford-IWSLT-15.pdf2.Fastdomainadaptationforneuralmachinet
warrioR_wx
·
2017-08-30 16:12
学习笔记
序列到序列的语言翻译模型代码(tensorflow)解析
0x00.前言(原文发表在博客,欢迎访问这份代码最开始在基于RNN的语言模型与机器翻译
NMT
看到。
grt1stnull
·
2017-08-14 11:27
深度学习
tensorflow
通过
NMT
训练的通用语境词向量:NLP中的预训练模型?
转载请注明出处:乐投网-通过
NMT
训练的通用语境词向量:NLP中的预训练模型?
乐投网
·
2017-08-09 09:15
机器学习
深度学习
attention 机制入门
他们把attention机制用到了神经网络机器翻译(
NMT
)上,
NMT
其实就是一个典型的sequencetosequence模型,也就是一个encodertodecoder模型https://arx
Alice熹爱学习
·
2017-07-28 22:31
自然语言处理
谷歌开放GNMT教程:如何使用TensorFlow构建自己的神经机器翻译系统
选自谷歌机器之心编译参与:机器之心编辑部近日,谷歌官方在Github开放了一份神经机器翻译教程,该教程从基本概念实现开始,首先搭建了一个简单的
NMT
模型,随后更进一步引进注意力机制和多层LSTM加强系统的性能
·
2017-07-14 08:00
谷歌
开放
gnmt
阿里云PAI将神经机器翻译训练效率提升5倍
阅读更多摘要:近两年,神经机器翻译(
NMT
:NeuralMachineTranslation)技术异军突起,翻译质量取得大幅提升。但不幸的是,
NMT
系统的训练成本非常高,限制了这一技术的大范围使用。
爱哭的小魔女
·
2017-07-13 17:00
阿里巴巴
论文阅读:Dual Learning for Machine Translation
论文阅读:DualLearningforMachineTranslation问题提出:目前在机器翻译的领域,神经机器翻译(
NMT
)快速发展,取得了很好的效果,但是为了得到一个好的
NMT
的模型,需要大量的人工标记的训练集即双语的语句对
cassiePython
·
2017-07-11 10:49
机器学习
论文阅读
模型汇总16 各类Seq2Seq模型对比及《Attention Is All You Need》中技术详解
1、已有Seq2Seq模型Seq2Seq模型是处理序列到序列问题的利器,尤其是在神经网络翻译(
NMT
)方面,取得了很大的成功。
lqfarmer
·
2017-06-20 22:32
深度学习
机器翻译
Seq2Seq
All-Attention
深度学习
深度学习与NLP
深度学习模型汇总
生成对抗网络GAN
深度学习与机器翻译
基于RNN的语言模型与机器翻译
NMT
语言模型传统的语言模型基于RNN的语言模型机器翻译基于统计的机器翻译架构基于RNN的seq2seq架构seq2seq结构优化seq2seqattentionsearchindecoderTensorflow实例以RNN为代表的语言模型在机器翻译领域已经达到了StateofArt的效果,本文将简要介绍语言模型、机器翻译,基于RNN的seq2seq架构及优化方法。语言模型语言模型就是计算一序列词出现的
Young_Gy
·
2017-06-18 20:39
三大机器翻译技术的high-level概述:Neural, Rule-Based and Phrase-Based Machine Translation
how-does-neural-machine-translation-work/Inthisissueofstep-by-steparticles,weexplainhowneuralmachinetranslation(
NMT
mmc2015
·
2017-06-17 14:00
深度学习
Facebook公布最新的神经网络机器翻译算法
Facebook的人工智能研究团队公布了他们最新的神经网络机器翻译(
NMT
)研究成果。同时进行三个机器翻译任务,他们的算法比其他任何一个系统的得分都要高,而且比Google的
NMT
系统快上9倍。
昵称4
·
2017-05-25 19:00
GROUP BY 和 ORDER BY一起使用时,要注意的问题!
原文链接:http://www.cnblogs.com/Vincent-
NMT
/p/6846983.html转:http://blog.csdn.net/haiross/article/details/
aoxue4024
·
2017-05-12 19:00
(Dual learning)对偶学习——视频笔记
DualLearning解决的问题:带标签的训练数据少且高昂的成本,尽可能的利用无标签数据DualLearning思想DualLearning在
NMT
中的应用1.算法思想2.负例3.正例4.实验设置(需要先预训练
六月麦茬
·
2017-05-11 22:02
机器学习与神经网络推理
神经翻译模型(
NMT
)新宠_Adversarial Neural Machine Translation_Adversarial-
NMT
今天我们讲讲
NMT
领域的新宠儿Adversarial-
NMT
。本文内容摘选自
lqfarmer
·
2017-05-01 17:39
深度学习文章阅读笔记
深度学习与NLP
深度学习模型汇总
生成对抗网络GAN
深度学习与机器翻译
电信网络发展
移动数据服务(如手机上网)2、固定网络服务:包括,固定电话服务、家庭宽带服务、IPTV、IP电话移动通讯服务的发展1G:使用模拟语音(analogvoice)常用的网通信系统技术:AMPS、TACS、
NMT
lingongheng
·
2017-04-22 00:00
通信
机器翻译中的深度学习技术:CNN,Seq2Seq,SGAN,Dual Learning
从最初完全基于靠人编纂的规则的机器翻译方法,到后来基于统计的SMT方法,再到现在神经机器翻译
NMT
,机器翻译技术在过去60多年的时间里一直不断的更新,特别是在2012深度学习技术进入人们视野之后,机器翻译的准确率不断刷新
lqfarmer
·
2017-04-20 22:30
深度学习与NLP
深度学习与机器翻译
机器翻译中的深度学习技术:CNN,Seq2Seq,SGAN,Dual Learning
从最初完全基于靠人编纂的规则的机器翻译方法,到后来基于统计的SMT方法,再到现在神经机器翻译
NMT
,机器翻译技术在过去60多年的时间里一直不断的更新,特别是在2012深度学习技术进入人们视野之后,机器翻译的准确率不断刷新
lqfarmer
·
2017-04-20 22:00
自然语言处理
深度学习
SGAN
DualLearning
Seq2Seq
论文引介 |
NMT
with Conditional Sequence Generative Adversarial Nets
文章原名:ImprovingNeuralMachineTranslationwithConditionalSequenceGenerativeAdversarialNets作者:ZhenYang,WeiChen,FengWangandBoXu单位:InstituteofAutomation,ChineseAcademyofSciences译者:韩旭链接:1导读这篇文章的主要工作在于应用了对抗训练(
算法学习者
·
2017-04-19 17:32
NLP
GAN
paper
reading
Massive Exploration of Neural Machine Translation Architectures
https://arxiv.org/pdf/1703.03906NeuralMachineTranslation(
NMT
)hasshownremarkableprogressoverthepastfewyearswithproductionsystemsnowbeingdeployedtoend-users.Onemajordrawbackofcurrentarchitecturesisthatt
算法学习者
·
2017-04-10 16:36
paper
reading
机器翻译第一步--词向量的生成与保存
我用的是斯坦福大学的
nmt
-matlab-master代码,显然这是用matlab编写的。matlab中没有直接将词转换成词向量的程序可用,Python倒是有一个:word2vec。
LucyGill
·
2017-04-08 12:44
Python
Sampled Softmax 论文笔记:On Using Very Large Target Vocabulary for Neural Machine Translation
相当于论文《OnUsingVeryLargeTargetVocabularyforNeuralMachineTranslation》的个人读书笔记,语句很不通顺,仅用作个人记录,若是有人有问题再讨论吧1问题
NMT
MebiuW
·
2017-04-02 16:32
论文笔记
神经网络机器翻译(2): Attention Mechanism--转自CSDN
前篇
NMT
介绍的基本RNNEncoder-Decoder结构,RNNenc将源语言句子压缩成一个固定维度的向量是造成性能瓶颈的主要原因。为此,Bengio研究组提出基于注意力(At
LucyGill
·
2017-03-28 18:23
理论
神经机器翻译
NMT
神经网络机器翻译NeuralMachineTranslation(1):Encoder-DecoderArchitecture神经网络机器翻译NeuralMachineTranslation(2):AttentionMechanism神经网络机器翻译NeuralMachineTranslation(3):AchievingOpenVocabularyNeuralMT神经网络机器翻译NeuralMa
可乐司机
·
2017-03-20 21:07
NLP
codeforces 235E. Number Challenge (反演)
d(
nmt
)=∑i|n∑j|m∑k|t[(i,j)=1][(j,k)=1][(i,k)=1]然后就可以开心的化式子啦。∑a=1n∑b=1m∑c=1t∑i|a∑j|b∑k|c[(
clover_hxy
·
2017-03-20 20:52
数论
反演
windows下运行sh文件——花式百度的结果
找了斯坦福大学的
nmt
.hybrid-master,据说是用MATLAB编写的。然而下载后才知道,代码中至关重要的1-prepare-and-train.sh文件要在Linux系统下启动。
LucyGill
·
2017-03-04 20:21
综合
[持续更新] 神经机器翻译论文汇总 Papers on Neural Machine Translation
[持续更新]神经机器翻译论文汇总PapersonNeuralMachineTranslation源文地址:http://polarlion.github.io/
nmt
/2017/02/10/
nmt
-papers.html
riddlesky
·
2017-02-15 15:16
神经机器翻译
Neural Machine Translation(
NMT
)技术概述
因此,这几天看了几篇有关NeuralMachineTranslation(
NMT
)的论文,对这个领域基本有了比较全面、正确的认识。在这个过程中,正好学习了业界最流行的attention思想,下面我
guoyuhaoaaa
·
2017-02-11 16:48
深度学习
#Paper Reading# Dual Learning for Machine Translation
论文题目:DualLearningforMachineTranslation论文地址:https://arxiv.org/abs/1611.00179论文发表于:NIPS2016(B类会议)论文大体内容:
NMT
john159151
·
2016-12-22 11:52
paper
reading
DL
Dual
神经机器翻译(
NMT
)资料
博客地址:http://blog.csdn.net/wangxinginnlp/article/details/52944649资料:https://arxiv.org/abs/1409.0473说明:基于注意力机制的神经机器翻译(Attention-basedNMT)的论文,首次将注意力机制引入神经机器翻译。资料:https://devblogs.nvidia.com/parallelforal
warrioR_wx
·
2016-10-27 13:35
学习笔记
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他