E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Seq2seq
自然语言处理中注意力机制综述
目录1.写在前面2.
Seq2Seq
模型3.NLP中Attentionmechanism的起源4.NLP中的注意力机制4.1HierarchicalAttention4.2Self-Attention4.3Memory-basedAttention4.4Soft
AI小白入门
·
2020-06-24 11:03
nlp
AI小白入门
加法的attenion简单的实现
一般Attention可以用于
seq2seq
中,也可以就用于简单的rnn模型中,下面介绍用于简单的rnn模型+attenion机制实现,流程答题可以分为:rnn部分,假如模型输入是一个这样tensor:
旭旭_哥
·
2020-06-24 10:23
python编程
机器学习
《动手学深度学习——机器翻译及相关技术,注意力机制与
seq2seq
模型,Transformer》笔记
动手学深度学习:机器翻译及相关技术,注意力机制与
seq2seq
模型,Transformer初次学习机器翻译相关,把课程的概念题都记录一下。
loveheart123
·
2020-06-24 08:20
深度学习课程
知识图谱如何助力文本摘要生成
本文转自:作者:结构学AI链接:https://www.jianshu.com/p/f4d8ca691397来源:简书引言文本生成类任务应用场景广泛,挑战性强,随着Attention-
Seq2seq
,Copy-Net
lili安
·
2020-06-24 05:03
知识图谱-摘要提取
seq2seq
聊天机器人
pythondemo.pypredictdemo.py#coding:utf-8importsysimportnumpyasnpimporttensorflowastffromtensorflow.contrib.legacy_
seq2seq
.python.opsimport
seq2seq
i
谁说大象不能跳舞
·
2020-06-23 21:05
算法
【人工智能笔记】第一节:基于Keras的
seq2seq
聊天机器人实现
源码:https://github.com/tfwcn/AIWord.txt为用到的字符集,本文用的只包含训练集里的字。ai.txt为训练素材,格式:问题1\t回答1\n问题2\t回答2\nLSTM原理图:σ代表:sigmoid函数训练过程图:代码如下:importkerasasKimportmatplotlib.pyplotaspltimportnumpyasnpimportmathimport
PPHT-H
·
2020-06-23 14:09
深度学习
Neural machine translation with attention(TF2.0基于注意机制的机器翻译)
学习AttentionMechanism就绕不开最经典的
seq2seq
模型Encoder-Decoder,本文在TF2.0的框架中实现一个将西班牙语翻译成英语的
Seq2Seq
模型,中间关于AttentionMechanism
Forizon
·
2020-06-23 14:29
TensorFlow
Seq2Seq
Model笔记
0.tf跑起来一直没有用GPU...尴尬,跑起来发现GPU没用起来,CPU满了。发现装错了,应该装tensorflow-gpu。代码测试是否用的是GPU:https://stackoverflow.com/questions/38009682/how-to-tell-if-tensorflow-is-using-gpu-acceleration-from-inside-python-shell1.
warrioR_wx
·
2020-06-23 13:39
学习笔记
Paper Weekly 第四期
这一期主要介绍两篇个关于
seq2seq
的论文,这是一个类似于编码-解码的模型,用在对话系统比较多,我对于这一块也是在逐渐了解,这次分享的文章就是关于此类模型的。
black__jack
·
2020-06-23 11:35
cs224n学习笔记L8:机器翻译(MT)、
Seq2Seq
、Attention
文章目录一、机器翻译1.1基于规则1.2基于概率(statistical)统计(SMT)1.2.1P(x|y)的学习1.3神经网络机器翻译(NMT)1.3.1
seq2seq
结构1.3.2
seq2seq
模型训练
geek_hch
·
2020-06-23 10:29
CS224N学习笔记
NLP-词和文档向量化方法
向量化文本就可以将一些文本处理问题转换为机器学习问题:0.1机器学习问题:文本分类,文本聚类,情感分析等,输入到
seq2seq
等模型需要数字化的词的表示形式。
gao8658
·
2020-06-23 09:16
算法研究
nlp
word2vector
人工智能
ValueError: Dimensions must be equal, but are 16 and 28 for '
seq2seq
/decoder/train/decoder
ValueError:Dimensionsmustbeequal,butare16and28for'
seq2seq
/decoder/train/decoder/while/BasicDecoderStep
firesolider
·
2020-06-23 08:44
tensorflow
我用 tensorflow 实现的“一个神经聊天模型”:一个基于深度学习的聊天机器人
概述这个工作尝试重现这个论文的结果ANeuralConversationalModel(akatheGooglechatbot).它使用了循环神经网络(
seq2seq
模型)来进行句子预测。
磐创 AI
·
2020-06-23 07:41
TensorFlow
nlp
深度学习之Attention模型详解
Attention的产生起因:《SequencetoSequenceLearningwithNeuralNetworks》Attention模型的引入原因:
seq2seq
将输入序列都压缩成一个固定大小的隐变量
DatapiTHU
·
2020-06-23 05:54
Pytorch学习记录-使用RNN encoder-decoder训练短语表示用于统计机器翻译
Pytorch学习记录-torchtext和Pytorch的实例20.PyTorch
Seq2Seq
项目介绍在完成基本的torchtext之后,找到了这个教程,《基于Pytorch和torchtext来理解和实现
我的昵称违规了
·
2020-06-23 05:40
如何用tf2.0训练中文聊天机器人chatbot
目前包含
seq2seq
、seqGAN版本和tf2.0版本。训练的语料是从互联网上找到的shooter的训练语料,语料质量很差劲,仅作为演示代码来用,大家可以使用自己的语料语料下载地
demm868
·
2020-06-23 03:39
基于
seq2seq
的中文聊天机器人
一、系统设计思路和框架本次系统全部使用Python编写,在系统设计上遵循着配置灵活、代码模块化的思路,分为数据预处理器、数据处理器、执行器、深度学习模型、可视化展示五个模块。模块间的逻辑关系大致为:1)数据预处理是将原始语料进行初步的处理以满足于数据处理模块的要求;2)执行器是整个系统引擎分别在运转的时候调用数据处理器、深度学习模型进行数据处理、模型训练、模型运作等工作;3)深度学习模型是一个基于
daniellibin
·
2020-06-23 02:57
动手学深度学习-机器翻译及相关技术;注意力机制与
Seq2seq
模型;Transformer
今天学习了机器翻译及相关技术、注意力机制与
Seq2seq
模型、Transformer这三节的内容,特来打卡。
sjtucq
·
2020-06-23 00:50
注意力机制(Attention)最新综述论文及相关源码
简介在下图中,左边是传统的
Seq2Seq
模型(
人工智能学家
·
2020-06-22 20:10
动手学深度学习:机器翻译及相关技术,注意力机制与
seq2seq
模型,Transformer
动手学深度学习:机器翻译及相关技术,注意力机制与
seq2seq
模型,Transformer内容摘自伯禹人工智能AI公益课程初次学习机器翻译相关,把课程的概念题都记录一下。
blexsantos
·
2020-06-22 18:09
深度学习
Attention机制理解
attention背景在
seq2seq
结构下,encoder-decoder模型中,模型首先将输入序列encode到固定长度的向量hhh中,然后在decoder中将hhh解码为输出序列。
bingmeishi
·
2020-06-22 18:27
ChatBot framework 开发实践
前言通常而言,通用聊天机器人(比如小冰等)底层技术是采用类似
Seq2Seq
等“生成”技术的。但是这种机器人属于探索性质,无法提供特定的服务。
祝威廉
·
2020-06-22 13:10
【干货】 223页的自然语言生成PPT资料 (文末有惊喜)
自然语言生成(NLG)在最近已经有了显著的进步,各种NLG系统被用于data2seq的任务(例如从表格生成财务报告、生成天气报告)或
seq2seq
的任务(例如汇总新闻报告、文本风格的转换)。
机器学习算法那些事
·
2020-06-22 13:50
Pytorch基于深度学习模型
Seq2Seq
的聊天机器人构建与应用部署实战
聊天机器人是非常常见而广泛的应用,很多企业都有很多机器人客服的需求,比如:移动、电信、联通、淘宝、京东等等,聊天机器人的本质就是文本数据处理,我的主要研究方向并不是文本处理相关的,但是断断续续学习、工作中接触到了一定的文本数据处理的任务,对文本数据处理也算得上是有一定的了解程度吧。聊天机器人的应用可以简单理解为“输入一句话,机器返回一句响应的话”,返回的话跟你的话或者是问题相关度比较高,让你察觉不
Together_CZ
·
2020-06-22 06:16
CNN
LSTM建模实战专栏
数据建模实战专栏
《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与
Seq2seq
模型;Transformer
Task04:机器翻译及相关技术;注意力机制与
Seq2seq
模型;Transformer1.机器翻译及相关技术机器翻译和数据集机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译
StarCoder_Yue
·
2020-06-22 05:05
机器学习
学习笔记
《动手学深度学习》task4——机器翻译及相关技术;注意力机制与
Seq2seq
模型;Transformer笔记
动手学深度学习》点击下面这个链接,有全目录哦~https://blog.csdn.net/Shine_rise/article/details/104754764本篇目录1机器翻译1.1数据预处理1.2
Seq2Seq
shiinerise
·
2020-06-22 05:09
深度学习
基于keras的
seq2seq
中英文翻译实现
1.
seq2seq
概述1.1
seq2seq
简介1.2
seq2seq
结构2.中英文翻译实战2.1数据处理2.2encoder-decoder模型搭建2.2.1用于训练的模型2.2.2用于推理的模型2.3模型评价
PIPIXIU
·
2020-06-22 03:15
机器学习
【论文笔记】AliMe:
seq2seq
&& IR
论文AliMeChat:AsequencetoSequenceandRerankbasedChatbotEngine讲的是如何做开放领域的聊天机器人这篇文章的主要核心思想是结合IR(信息检索)和
seq2seq
GodsLeft
·
2020-06-21 21:18
算法与数据结构
【项目小结】英语语法错误检测(GEC)开题论文阅读记录
我看了一下他给出的题目:英语句法分析、英语用词错误检测,文本摘要、文本阅读理解,还有一个乱入的野生动物识别,我自己觉得很有兴趣也非常具有挑战性,他让我自己选一个,我觉得后面三个思路相对单纯一些,可能就是
seq2seq
囚生CY
·
2020-06-21 18:12
项目小结
NLP
【论文阅读】Get to the point :summarization with pointer-generator networks
摘要:本文在原来的神经
seq2seq
模型上进行了两种改变,用混合的pointer-generator网络,既可以通过pointing直接从原文中copy单词又保留了通过generator生成新词的能力;
BeforeEasy
·
2020-06-21 17:00
nltk
论文
神经网络
图像学习-验证码识别
Part0模型概览captcha_overview.png从图片到序列实际上就是Image2text也就是
seq2seq
的一种。encoder是Image,decoder
Slyne_D
·
2020-06-21 16:00
一篇了解NLP中的注意力机制
转自|AI小白入门(公众号ID:StudyForAI)作者|yuquanle,985在读硕士,目前研究方向为自然语言处理00目录1.写在前面2.
Seq2Seq
模型3.NLP中注意力机制起源4.NLP中的注意力机制
数智物语
·
2020-06-21 14:53
NLP
自然语言分析
动手入门深度学习笔记-机器翻译(注意力机制与
Seq2seq
模型,Transformer)
机器翻译1.定义将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。2.code实现##机器翻译定义"""主要是将一段文本从一种语言自动翻译成另外一种语言输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同"""importosos.listdir('/home/
mensyne
·
2020-06-21 14:55
动手入门深度学习
python正则模块re
re一.re模块内置的函数方法re.compile(pattern,flags=0)https://cdn.analyticsvidhya.com/wp-content/uploads/2019/06/
seq2seq
.gif
wei_liao
·
2020-06-21 12:00
python
BahdanauAttention与LuongAttention注意力机制简介
在使用tensorflow时发现其提供了两种AttentionMechanisms(注意力机制),如下Thetwobasicattentionmechanismsare:tf.contrib.
seq2seq
.BahdanauAttention
庞加莱
·
2020-06-21 08:52
深度学习
Tensorflow中的
seq2seq
话不多说先上图NMT中的
seq2seq
加入attention基本的
seq2seq
模型:outputs,states=basic_rnn_
seq2seq
(encoder_inputs,decoder_inputs
小绿叶mj
·
2020-06-21 07:24
语义相似度(理论篇)
比如,刚毕业的硕士或者毕业1~2年的,会热衷于研究GAN,
seq2seq
,甚至包括nlp刚起步的一些公司。这类群体对nlp的理解处于第一层次,后面还有很多雷区要踩,要付出一定的试错代价,成长的代价
佟学强
·
2020-06-21 06:02
nlp语义理解
神经网络
深度学习
交通流预测:图卷积网络+
seq2seq
模型概述
本文将结合交通流量预测分析《BikeFlowPredictionwithMulti-GraphConvolutionalNetworks》中的模型。参考的这篇博客:https://blog.csdn.net/zuiyishihefang/article/details/96978243图卷积网络图网络可以有效的描述交通流预测中地图的拓扑结构,特别是在有采样点参与的情况下。GNN为点和边都赋予属性,
另请高明
·
2020-06-21 06:40
大数据
深度学习
深度学习在NLP领域的发展(一)
DeepLearning在NLP领域的发展三个阶段:WordEmbeddingWord2VecGloVeRNN改进和扩展LSTM/GRU
Seq2Seq
Attention/Self-AttentionContextualWordEmbeddingELMOOpenAIGPTBERT
Vinsmoke -Hou
·
2020-06-21 04:09
自然语言处理
知识图谱与文本生成
受到深度神经网络的影响,许多文本生成模型模型被研发,有基于机器翻译的
Seq2Seq
框架,有纯数据驱动模型,也有融合了知识图谱信息的知识驱动模型。
秃然变强了
·
2020-06-21 02:15
NLP
Deeplearning
知识图谱
机器学习
人工智能
算法
大数据
python
一文读懂「Attention is All You Need」| 附代码实现
有两篇类似同时也是笔者非常欣赏的论文,分别是FaceBook的ConvolutionalSequencetoSequenceLearning和Google的AttentionisAllYouNeed,它们都算是
Seq2Seq
阿里云_云栖社区
·
2020-06-21 02:11
抗击肺炎:新冠肺炎疫情数据可视化及疫情预测分析
这里将使用传统时间序列模型Prophet、深度学习模型
Seq2seq
和传染病模型SIR进行确诊人数预测。数据描述数据来源:https://www.
风度78
·
2020-06-21 01:00
深入浅出Transformer
Transformer之前,大家的思路都是在改进序列模型,从RNN到LSTM、GRU、
Seq2Seq
。如果你看过我之前写的深
A君来了
·
2020-06-16 21:00
(2020.6.13)文本生成初探
第一篇:OneSizeDoesNotFitAll:GeneratingandEvaluatingVariableNumberofKeyphrases主框架:
seq2seq
做生成,加入了attention
SQLKRAD
·
2020-06-13 22:00
【Pytorch官方教程】从零开始自己搭建RNN3 - 含注意力机制的
Seq2Seq
机器翻译模型
文章目录0前言1数据与说明数据下载任务说明2基本原理序列编码器-解码器注意力机制3代码数据预处理模型编码器解码器简单的解码器含注意力机制的解码器训练测试画图参考资料0前言来自官方教程,对于萌新学习用Pytorch做NLP任务有很大的帮助,就翻译过来,顺便自己Mark一下,因为打开官网有时候太慢了,还是看自己写的Blog比较快。另外,之前在做⭐李宏毅2020机器学习作业4-RNN:句子情感分类的时候
iteapoy
·
2020-06-07 19:55
❤️
机器学习
具有注意力机制的
seq2seq
模型
作者|RenuKhandelwal编译|VK来源|TowardsDataScience在本文中,你将了解:为什么我们需要
seq2seq
模型的注意力机制?Bahdanua的注意力机制是如何运作的?
人工智能遇见磐创
·
2020-06-07 15:00
seq2seq
聊天机器人
seq2seq
聊天机器人作者:魏祖昌一、背景介绍人工智能技术的进步,语音识别技术、自然语言处理等技术的成熟,智能客服的发展很好的承接当下传统人工客服所面临的挑战。
Momodel
·
2020-05-28 00:43
人工智能
机器学习
智能交通的深度学习综述-基于图卷积神网络
ChallengesProblemsformulationandGraphconstructionDeepLearningtechniquesperspective(1)概要(2)GNNs(3)RNNs(4)TCN(5)
Seq2Seq
大奸猫
·
2020-05-26 09:11
论文
图神经网络
深度学习
智能交通
tcn
GNNs
Pointer Generator Network
PointerGeneratorNetwork原文链接:https://arxiv.org/abs/1704.04368Motivation对于文本总结问题,传统
seq2seq
模型会产生事实性错误、病句
-Limbo-
·
2020-05-19 22:00
Copynet
原文链接:https://arxiv.org/abs/1603.06393Motivation传统的
Seq2seq
模型存在OOV(OutOfVocabulary)问题,即对于超出词表的词难以预测。
-Limbo-
·
2020-05-19 22:00
上一页
26
27
28
29
30
31
32
33
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他