E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
seq2seq
2018-08-22 Attention模型
完全图解RNN、RNN变体、
Seq2Seq
、Attention机制https://zhuanlan.zhihu.com/p/28054589真正的完全图解
Seq2Seq
Attention模型https:
hzyido
·
2018-08-22 00:26
2018-08-22 Attention模型
完全图解RNN、RNN变体、
Seq2Seq
、Attention机制https://zhuanlan.zhihu.com/p/28054589真正的完全图解
Seq2Seq
Attention模型https:
hzyido
·
2018-08-22 00:26
attention 理解 根据pytorch教程
seq2seq
源码
右侧对应pytorch
seq2seq
源码。我们的问题是,左边的数学符号,右侧的代码是如何对应的?1,不是词嵌入
Jason__Liang
·
2018-08-20 10:54
人工智能
真正的完全图解
Seq2Seq
Attention模型
0k71fKKv2SRLv9M6BjDo4w原创:盛源车机器学习算法与自然语言处理1周前https://zhuanlan.zhihu.com/p/40920384作者:盛源车知乎专栏:魔法抓的学习笔记五分钟看懂
seq2seq
attention
fan_fan_feng
·
2018-08-14 14:36
自然语言处理
【机器学习】【RNN中的梯度消失与梯度爆炸】
学习speechsynthesis的Tacotron模型,而Tacotron是基于
seq2seq
attention,RNN中的一类。所以得先学习RNN,以及RNN的变种LSTM和GRU。
forwiat
·
2018-08-12 23:00
机器学习
NLP之
Seq2Seq
如果你没有学习过LSTM的知识,那么你可以参考下笔者的前面的一篇文章:深度学习之RNN(循环神经网络)一什么是
Seq2Seq
?
笨拙的石头
·
2018-08-12 21:38
NLP
Seq2Seq
+Attention+Beam Search
开篇
Seq2Seq
算是我NLP里面接触比较早的模型,它来源于机器翻译,我用来做文本自动摘要。当然它在文本自动摘要领域的效果并不好。
Ding_xiaofei
·
2018-08-10 10:03
深度学习
NLP
Seq2Seq
+Attention+Beam Search
开篇
Seq2Seq
算是我NLP里面接触比较早的模型,它来源于机器翻译,我用来做文本自动摘要。当然它在文本自动摘要领域的效果并不好。
Ding_xiaofei
·
2018-08-10 10:03
深度学习
NLP
NLP-词和文档向量化方法
向量化文本就可以将一些文本处理问题转换为机器学习问题:0.1机器学习问题:文本分类,文本聚类,情感分析等,输入到
seq2seq
等模型需要数字化的词的表示形式。
gao8658
·
2018-08-06 00:00
算法研究
seq2seq
主要实现步骤和源码
注意点:1数据预处理阶段(添加特殊字符)主要用来进行字符补全,和都是用在Decoder端的序列中,告诉解码器句子的起始与结束则用来替代一些未出现过的词或者低频词2encoder直接lstm或者其他模型3decoder对target数据进行处理构造Decoder在训练过程中,我们需要将我们的target序列作为输入传给Decoder端RNN的每个阶段,而不是使用前一阶段预测输出,这样会使得模型更加准
fkyyly
·
2018-08-05 21:16
tensorflow
完全图解
Seq2Seq
Attention模型
五分钟看懂
seq2seq
attention模型。本文通过图片,详细地画出了
seq2seq
+attention模型的全部流程,帮助小伙伴们无痛理解机器翻译等任务的重要模型。
hellozhxy
·
2018-08-03 14:51
机器学习
seq训练时batch_size 个数据进行转置
文章参考:https://www.tinymind.cn/articles/205作者|李理在实现
seq2seq
时,对模型的输入encoder_inputs会进行转置操作:#以下为将数据进行reshape
M先森
·
2018-08-01 19:35
Abstractive Summarization
Sequence-to-sequenceFrameworkANeuralAttentionModelforAbstractiveSentenceSummarizationAlexanderM.Rushetal.,FacebookAIResearch/HarvardEMNLP2015sentencelevel
seq2seq
weixin_30561177
·
2018-07-25 14:00
人工智能
前端
操作系统
NLP相关书籍和论文综述
ModernDeepLearningTechniquesAppliedtoNaturalLanguageProcessing这是一篇在线的概述文章,介绍了NLP的发展历史,以及最新处理NLP任务的方法,从词的分布式表示如word2vec,Glove等词向量模型,到CNN、RNN等分类模型和
seq2seq
浩子童鞋
·
2018-07-23 00:31
自然语言处理
Encoder-Decoder自动生成对联,要试试么?
后台回复“20180717”下载数据和代码编程环境:TensorflowPython3.6(实现了一份基于
seq2seq
的自动对联的代码,感兴趣的小伙伴可以下载学习)另外,点击阅读原文尝试微软的自动对联系统
机器学习算法与Python学习-公众号
·
2018-07-17 19:00
AttributeError: module 'tensorflow.tools.api.generator.api.nn' has no attribute '
seq2seq
'
loss=tf.nn.
seq2seq
.sequence_loss_by_example([logits],#output[batch*numsteps,vocab_size][tf.reshape(self
sxjjxc
·
2018-07-08 11:24
TensorFlow
TensorFlow
你的英语不行!微软亚研自动语法纠错系统达到人类水平
因为
seq2seq
模型在语法纠错上存在缺陷,微软亚洲研究院的自然语言计算团队近日提出了流畅度提升学习和推断机制,用于改善
seq2seq
模型的语法纠错性能。
机器之心V
·
2018-07-05 00:00
斯坦福大学Tensorflow与深度学习实战课程
该课程讲解了最新版本的Tensorflow中各种概念、操作和使用方法,并且给出了丰富的深度学习模型实战,涉及Word2vec、AutoEncoder、RNN(LSTM,GRU)、
Seq2seq
withAttention
han____shuai
·
2018-07-04 18:15
segment
seq2seq
代码解析-1
segment
seq2seq
源代码:https://github.com/pponnada/segment
seq2seq
tensorflow版本为0.12.0时运行OKdatasets原始数据文件有:1
一颗Lychee
·
2018-07-02 21:45
tensorflow
安装
seq2seq
错误汇总
1.问题一:报错信息如下:ImportError:Failedtoimporttestmodule:
seq2seq
Traceback(mostrecentcalllast):File"/usr/lib/
nice肥牛
·
2018-06-26 15:31
机器学习
基于注意力机制的
seq2seq
网络
seq2seq
的用途有很多,比如机器翻译,写诗,作曲,看图写文字等等用途很广泛!
LeadAI学院
·
2018-06-19 18:00
Attention模型方法综述 | 多篇经典论文解读
以基于
seq2seq
模型的机器翻译为例,如果decoder只用encoder最后一个时刻输出的hiddenstate,可能会有两个问题(我个人的理解)。
Paper_weekly
·
2018-06-11 14:23
seq2seq
代码解析
先上一个
seq2seq
的图片,有几点需要注意这是两个RNN,编码RNN会将一个序列最后的状态作为解码RNN的初始状态编码的RNN我们是不需要输出,主要是没啥用,但是attention的时候需要解码的RNN
hwj666
·
2018-06-07 19:52
tensorflow
【论文笔记】neural machine translation by jointly learning to align and translate
论文链接这篇文章是将attention机制应用于机器翻译上,普通的
seq2seq
模型要将输入文本的信息编码至固定长度的隐向量中,当面对长文本时会损失许多信息,那么就要利用attention对输入文本的不同片段根据其重要程度分配不同的权重
theoreoeater
·
2018-05-30 14:24
论文笔记
自然语言处理
深度学习
Attention
attention
NLP
自然语言处理
干货|当深度学习遇见自动文本摘要,
seq2seq
+attention
随着近几年文本信息的爆发式增长,人们每天能接触到海量的文本信息,如新闻、博客、聊天、报告、论文、微博等。从大量文本信息中提取重要的内容,已成为我们的一个迫切需求,而自动文本摘要(automatictextsummarization)则提供了一个高效的解决方案。根据Radev的定义[3],摘要是“一段从一份或多份文本中提取出来的文字,它包含了原文本中的重要信息,其长度不超过或远少于原文本的一半”。自
机器学习算法与Python学习
·
2018-05-29 00:00
tensorflow(十一)--利用
seq2seq
的Decoder-Encoder机制实现序列生成模型(上)
前言:由于本社群打算组队参加京东的多轮对话系统挑战赛,比赛内容主要是做一款功能强大的聊天机器人,由于之前一直都是在做视觉,而
seq2seq
又是聊天机器人不可或缺的,因此打算学一下nlp的东西。
Missayaa
·
2018-05-28 14:53
tensorflow
如何用TensorFlow训练聊天机器人(附github)
://blog.csdn.net/wangyangzhizhou/article/details/78119339实际工程中很少有直接用深度学习实现端对端的聊天机器人,但这里我们来看看怎么用深度学习的
seq2seq
mlion
·
2018-05-28 11:46
PyTorch使用
seq2seq
+attention实现时间格式转换
pytorch实现
seq2seq
+attention转换日期使用keras实现加入注意力机制的
seq2seq
比较麻烦,所以这里我尝试使用机器翻译的
seq2seq
+attention模型实现人造日期对标准日期格式的转换
uhauha2929
·
2018-05-27 22:14
pytorch
详解Attention is All U Need
原文链接https://blog.csdn.net/lqfarmer/article/details/73521811已有
Seq2Seq
模型
Seq2Seq
模型是处理序列到序列问题的利器,尤其是在神经网络翻译方面
fendegao
·
2018-05-25 14:26
机器学习笔记
实战 | 手把手教你搭一个机器翻译模型
(在阅读本文之前,建议你先阅读该系列的前两篇文章,附完整代码:①一文详解循环神经网络的基本概念,②实战|手把手教你用PyTorch实现图像描述)本示例会介绍使用
seq2seq
网络来实现机器翻译,同时使用注意力机制来提高
csdn_csdn__AI
·
2018-05-21 17:50
实战 | 手把手教你搭一个机器翻译模型
(在阅读本文之前,建议你先阅读该系列的前两篇文章,附完整代码:①一文详解循环神经网络的基本概念,②实战|手把手教你用PyTorch实现图像描述)本示例会介绍使用
seq2seq
网络来实现机器翻译,同时使用注意力机制来提高
csdn人工智能头条
·
2018-05-21 17:50
转型AI工程师:一起来听听AI 开发者的一天
“这是一个典型AI星期天的叙述,我决定使用一些已经可用的示例代码和来自康奈尔电影数据库的数据基于聊天机器人建立一个序列(
seq2seq
)模型。”
mlooker
·
2018-05-18 10:44
人工智能
贪心科技
AI
AI工程师
使用tensorflow
seq2seq
进行时间序列预测
本文通过生成的随机数利用tensorflow的
seq2seq
模型进行单变量时间序列预测实验,目的是理解
seq2seq
的模型基础架构以及验证模
笛在月明
·
2018-05-11 16:52
Python
算法
深度学习
机器学习
学习笔记CB014:TensorFlow
seq2seq
模型步步进阶
seq2seq
模型基于循环神经网络序列到序列模型,语言翻译、自动问答等序列到序列场景,都可用seq2
利炳根
·
2018-05-05 23:44
聊天机器人
自然语言处理
机器学习
聊天机器人
学习笔记CB014:TensorFlow
seq2seq
模型步步进阶
seq2seq
模型基于循环神经网络序列到序列模型,语言翻译、自动问答等序列到序列场景,都可用seq2
利炳根
·
2018-05-05 23:42
学习笔记CB013: TensorFlow、TensorBoard、
seq2seq
tensorflow基于图结构深度学习框架,内部通过session实现图和计算内核交互。tensorflow基本数学运算用法。importtensorflowastfsess=tf.Session()a=tf.placeholder("float")b=tf.placeholder("float")c=tf.constant(6.0)d=tf.mul(a,b)y=tf.mul(d,c)prints
利炳根
·
2018-05-05 13:45
聊天机器人
学习笔记CB014:TensorFlow
seq2seq
模型步步进阶
seq2seq
模型基于循环神经网络序列到序列模型,语言翻译、自动问答等序列到序列场景,都可用
seq2seq
模型,用
seq2seq
实现聊天机器人的原理h
利炳根
·
2018-05-05 00:00
机器学习
自然语言处理
聊天机器人
学习笔记CB013: TensorFlow、TensorBoard、
seq2seq
tensorflow基于图结构深度学习框架,内部通过session实现图和计算内核交互。tensorflow基本数学运算用法。importtensorflowastfsess=tf.Session()a=tf.placeholder("float")b=tf.placeholder("float")c=tf.constant(6.0)d=tf.mul(a,b)y=tf.mul(d,c)prints
利炳根
·
2018-05-05 00:00
机器学习
自然语言处理
聊天机器人
非RNN的新型
seq2seq
任务网络模型(self-attention机制)
今天我要讲的是2017年的两篇
seq2seq
任务中最新的两个科研成果,分别参考了2017年Google团队在NIPS上的论文《AttentionIsAllYouNeed》和2017年Facebook团队在
guoyuhaoaaa
·
2018-05-02 14:55
深度学习
tf.contrib.
seq2seq
.BahdanauAttention函数和tf.contrib.
seq2seq
.LuongAttention函数学习
tf.contrib.
seq2seq
.BahdanauAttention()__init__( num_units, memory, memory_sequence_length=None, normalize
hkzmz
·
2018-04-25 23:46
tensorflow
放弃 RNN/LSTM 吧,因为真的不好用!望周知~
起初,LSTM和RNN只是一种解决序列学习和序列翻译问题的方法(
seq2seq
),随后被用于语音识别并有很好的效果,比如Siri,Cortana,Alexa等;此外,这种技术在机器翻译领域也有应用,比如
csdn_csdn__AI
·
2018-04-24 00:00
ApacheCN开源项目PyTorch源码翻译
seq2seq
#-*-coding:utf-8-*-"""用序列到序列神经网络和注意力进行翻译***************************************************************作者**:`SeanRobertson`_这个教程主要讲解用一个神经网络将法语翻译成英语.::[KEY:>input,=target,ilestentraindepeindreuntableau
EWilsen
·
2018-04-08 14:38
深度学习
ApacheCN
手把手教你用
seq2seq
模型创建数据产品(附代码)
原文标题:HowToCreateDataProductsThatAreMagicalUsingSequence-to-SequenceModels作者:HamelHusain翻译:笪洁琼校对:梁傅淇本文共7300字,建议阅读14分钟。本文将教你如何使用Keras和TensorFlow来对Github项目进行文本摘要和特征提取。目标:训练一个模型来对Github项目进行总结矩形框中的是预测结果以上只
数据派THU
·
2018-03-21 00:00
神经网络摘要
Seq2Seq
自动摘要:抽取式摘要VS生成式摘要TextsummarizationAttentionEncoder融合不同features评测标准Encoder改进人的阅读习惯,选择重要的词,总结为摘要加入一个Gate选择词语图片发自App图片发自App图片发自App图片发自App图片发自App图片发自App图片发自App
Ada_Bleau
·
2018-03-18 21:07
TensorFlow学习笔记:自然语言处理
我是被TensorFlowAPI坑惨了,我知道tf.nn.
seq2seq
.sequence_loss_by_example没有了,但是因为还有一个tf.contrib.
seq2seq
.sequence
qin1changping
·
2018-03-15 16:59
TensorFlow学习笔记
关于注意力机制(attention mechanism)在神经机器翻译领域的两篇论文的理解
近来研究通过RNN的
Seq2Seq
模型处理文本正则化(TextNormalization)时准备用到注意力机制,因此拜读了注意力机制在自然语言处理的神经机器翻译(以下简称NMT)的两篇论文:《NEURALMACHINETRANSLATIONBYJOINTLYLEARNINGTOALIGNANDTRANSLATE
吃块沙琪玛
·
2018-03-12 18:06
深度学习
Seq2seq
理解
注:这篇文章是根据小象学院史兴老师自然语言课程,加上自己的理解。方便日后复习。一,模型,其是一个结构化预测。F:inputsequence/sourcesequenceE:outputsequence/targetsequence二,模型示意图图示说明:1)encode和decoder的参数不同;2)h,c是中间向量;3)每一层的lstm参数不同,同一层的参数相同;4)可以拿中间变量来做聚类,文本
bing_lan_zhang
·
2018-03-01 21:11
自然语言
Tensorflow 0.9.0开发的代码升级到Tensorflow 1.0.0版本的一些经验
1.tensorfow.models模块在1.0.0版本被单独分离出来,调用
seq2seq
_model.py,
seq2seq
_model_utils.py和data_utils.py等文件接口的代码需做修改
hfutdog
·
2018-02-17 23:10
TensorFlow
PyTorch: 序列到序列模型(
Seq2Seq
)实现机器翻译实战
版权声明:博客文章都是作者辛苦整理的,转载请注明出处,谢谢!http://blog.csdn.net/m0_37306360/article/details/79318644简介在这个项目中,我们将使用PyTorch框架实现一个神经网络,这个网络实现法文翻译成英文。这个项目是SeanRobertson写的稍微复杂一点的教程,但对学习PyTorch还是有很大的帮助。本文通过序列网络的这种简单而强大的
yuquanle
·
2018-02-12 20:44
nlp
PyTorch
PyTorch学习
智能客服设计
阿里小蜜设计思路腾讯客服设计思路智能客服机器人设计总结实现一般有两种,第一种是检索模型,第二种是生成模型检索模型,一般是通过检索已有的常用问答对,查找候选答案,如不成功,不然就进入全部数据库中检索,找出候选答案生成模型,我认为有两种,一种是
seq2seq
brandon_wang
·
2018-01-27 13:27
上一页
32
33
34
35
36
37
38
39
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他