E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
seq2seq
BERT系列模型总结
TransformerTransformer-XLBERTXLNETRoBERTaALBert参考NLP预训练模型:从transformer到albertXLNet:运行机制及和Bert的异同比较从语言模型到
Seq2Seq
一只小菜狗:D
·
2023-01-31 11:14
NLP
自然语言处理
bert
transformer
NLP 进行文本摘要的三种策略代码实现和对比:TextRank vs
Seq2Seq
vs BART
本文将使用Python实现和对比解释NLP中的3种不同文本摘要策略:老式的TextRank(使用gensim)、著名的
Seq2Seq
(使基于tensorflow)和最前沿的BART(使用Transformers
数据派THU
·
2023-01-31 11:34
自然语言处理
算法
python
机器学习
人工智能
序列生成策略——束搜索、贪心搜索、穷举搜索
在序列到序列学习(
seq2seq
,BLEU)_流萤数点的博客-CSDN博客中,我们逐个预测输出序列,直到预测序列中出现特定的序列结束词元“”。
流萤数点
·
2023-01-31 05:36
自然语言处理
算法
自然语言处理
2. Transformer相关的原理(2.1.图解attention)
seq2seq
模型首先谈一下NLP常用于生成任务的
seq2seq
结构。
seq2seq
模型结构在很多任务上都取得了成功,如:机器翻译、文本摘要、图像描
sunshinecxm_BJTU
·
2023-01-30 16:55
Transformer学习
(科普)nlp-图解Attention+Transformer
图解Attention
seq2seq
模型NLP常用于生成任务的
seq2seq
结构。如:机器翻译、文本摘要、图像描述生成。谷歌翻译在2016年年末开始使用这种模型。
꧁ᝰ苏苏ᝰ꧂
·
2023-01-30 16:55
nlp
算法
数据结构
nlp
transfer
learning
图解
seq2seq
+attention机制
seq2seq
是一个Encoder–Decoder结构的网络,它的输入是一个序列,输出也是一个序列,Encoder中将一个可变长度的信号序列变为固定长度的向量表达,Decoder将这个固定长度的向量变成可变长度的目标的信号序列
废柴小七
·
2023-01-30 16:24
学习记录
attention
sequence
【NLP】图解 Attention完整版
序列到序列(
seq2seq
)模型是一种深度学习模型,在很多任务上都取得了成功,如:机器翻译、文本摘要、图像描述生成。谷歌翻译在2016年年末开始使用这种模型。
风度78
·
2023-01-30 16:23
人工智能
机器学习
深度学习
python
神经网络
Transformer onnx模型的导出
0.Encoder.onnx和decoder.onnx
Seq2seq
结构也称为encoder-decoder结构,在decoder结构为单步解码时,
seq2seq
的导出的与只有encoder时(如BERT
haroldLiu001
·
2023-01-30 08:37
transformer
深度学习
自然语言处理
Seq2seq
模型蒸馏方法
一.
Seq2seq
模型蒸馏方法总体过程如下1.训练teacher模型2.产生student模型3.利用teacher模型预测的logits和来自语料的truelabels来计算student模型的训练过程中的
haroldLiu001
·
2023-01-30 08:07
深度学习
人工智能
nlp
Transformer模型压缩
这里只讨论transformer机制的
seq2seq
结构,模型压缩的方法主要涉及:1.模型尺寸减少如以下参数尺寸的减少--num_encoder_layers--num_decoder_layers--
haroldLiu001
·
2023-01-30 08:07
transformer
深度学习
人工智能
nlp
Seq2Seq
模型
Seq2Seq
模型实际上是一个Encoder-Decoder的网络模型,由Encoder将变长的序列编码压缩成固定长度的向量,然后由Decoder将解码成目标序列
Seq2Seq
[GO]启动序列的解码,当解码到输出
_Megamind_
·
2023-01-30 08:23
基于循环神经网络(RNN)的智能聊天机器人系统(毕业设计 附完整代码)
本设计研究智能聊天机器人技术,基于循环神经网络构建了一套智能聊天机器人系统,系统将由以下几个部分构成:制作问答聊天数据集、RNN神经网络搭建、
seq2seq
模型训练、智能聊天。
数学是算法的灵魂
·
2023-01-30 02:18
机器学习实战100例
循环神经网络
毕业设计
RNN
基于RNN的智能聊天机器人(毕业设计 附完整代码)
本设计研究智能聊天机器人技术,基于循环神经网络构建了一套智能聊天机器人系统,系统将由以下几个部分构成:制作问答聊天数据集、RNN神经网络搭建、
seq2seq
模型训练、智能聊天。
甜辣uu
·
2023-01-30 02:46
深度学习神经网络实战100例
循环神经网络
RNN
毕业设计
NLP文本摘要NO.3
seq2seq
数据处理部分
seq2seq
实现文本摘要的架构编码器端负责将输入数据进行编码,得到中间语义张量.解码器端负责一次次的循环解析中间语义张量,得到最终的结果语句.一般来说,我们将注意力机制添加在解码器端.对比于英译法任务
XD101DX
·
2023-01-29 07:07
文本摘要
pytorch
自然语言处理
人工智能
NLP | 注意力机制Attention Mechannism图文详解及代码
它是一种旨在提高编码器解码器(
seq2seq
)RNN模型性能的机制。注意力被提出作为编码器-解码器模型限制的解决方案,该模型将输入序列编码为一个固定长度的向量,在每个时间步从该向量解码输出。
夏天|여름이다
·
2023-01-28 13:19
-
NLP
-
自然语言处理
深度学习
人工智能
注意力机制
(八)sequence to sequence —3
实现beam_search部分基于tensorflow1.4
Seq2seq
的实现importhelpersimporttensorflowastffromtensorflow.python.utilimportnestfromtensorflow.contribimport
seq2seq
天生smile
·
2023-01-28 10:20
编码器解码器架构、
Seq2Seq
简要笔记
编码器解码器架构后续自然语言处理都基本使用这个架构来实现的
Seq2Seq
最早是用来做机器翻译的,现在用Bert比较多,
Seq2Seq
是一个Encoder-Decoder的架构,
Seq2Seq
模型的编码器使用的
思考实践
·
2023-01-27 11:54
#
NLP与推荐系统
seq2seq
attention
self-attention
Seq2Seq
生成古诗
数据形式in.txt是诗的上半句,也就是作为输入的部分。out.txt是诗的下半句,也就是我们要预测的部分,可以看出这两幅图片上的诗是两两对应的。1.加载数据importpandasaspdimportnumpyasnpfromgensim.models.word2vecimportLineSentence,Word2Vecimporttensorflowastfimporttime#加载数据:r
CAIC00513
·
2023-01-27 11:53
nlp
tensorflow
深度学习
自然语言处理
nlp
seq2seq
深度学习07 - Attention机制-
seq2seq
序列模型
1、
seq2seq
简介
Seq2Seq
模型是输出的长度不确定时采用的模型,这种情况一般是在机器翻译的任务中出现,将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了
NULL326
·
2023-01-27 11:23
深度学习基础
word2vec、
seq2seq
tensorflow是google在2015年开源的深度学习框架tf中有word2vec,
seq2seq
,所以我这里先学习tensorflow,然后再实现word2vec和
seq2seq
一、tensorflow1.1
dengyao6547
·
2023-01-27 11:14
人工智能
数据结构与算法
python
深度学习基础之 vec2seq(向量到序列)、seq2vec(序列到向量)、
seq2seq
(序列到序列)
“
Seq2Seq
”模型将一个序列作为输入,例如一个英文句子,并输出另一个序列,例如句子翻译。
zzzzzBelial
·
2023-01-27 11:42
机器学习
深度学习
人工智能
7_Attention(注意力机制)
文章目录一、
Seq2Seq
Model二、
Seq2Seq
ModelwithAttention2.1SimpleRNN+Attention2.1.1权重计算α~i~2.1.2ContextvectorC~i
IT-cute
·
2023-01-26 22:39
NLP
深度学习
机器学习
pytorch
神经网络之Pointer Net (Ptr-net)
PointerNetworks也是一种
seq2seq
模型。他在attentionmechanism的基础上做了改进,克服了
seq2seq
模型中“输出严重依赖输入”的问题。什么是“输出严重依赖输入”呢?
fighting41love
·
2023-01-26 19:18
91.使用注意力机制的
seq2seq
以及代码实现
之前的
seq2seq
只使用了最后的key-value,现在则是把所有的key-value都考虑到解码器RNN对上一个词的输出是query比如说上一次的预测是“hello”的话(也就是得到了法语的“你好
chnyi6_ya
·
2023-01-26 16:48
深度学习
深度学习
python
pytorch
对注意力机制(Attention)的一些理解附上Bi-LSTM和
seq2seq
加上注意力机制的代码
注意力机制,简单来说就是让模型能够学会具体问题具体分析吧,比如问你是个水果大师,别人问你这个苹果怎么样,那总得盯着苹果端详吧,而不是去看那个西瓜。理解的应该差不太多吧…这个是从b站看的一个手推注意力机制的视频,照着画了一遍,感觉大概也是明白了一点。主要计算过程(当时她讲的是机器翻译的例子)就是编码器所有的隐藏层以及解码器当前的隐藏层一起计算出attention后再计算出context-vector
Icy Hunter
·
2023-01-26 16:47
pytorch
机器翻译
深度学习
自然语言处理
注意力机制
RNN模型与NLP应用:Attention-8/9
目录一、前言二、attention改进
seq2seq
模型三、总结四、参考连接一、前言
Seq2seq
模型个别词语被忘记了,那么decode就无从得知完整的句子,也就不可能产生正确的翻译,如果你拿
seq2seq
黄乐荣
·
2023-01-26 03:12
ViT——ShuSenWang
自然语言处理
深度学习【使用PyTorch实现
seq2seq
模型】
文章目录一闲聊机器人的介绍二
Seq2Seq
模型的原理1.
Seq2Seq
的介绍2.
Seq2Seq
模型的实现2.1实现流程2.2文本转化为序列2.3准备数据集2.3.1准备`Dataset`2.3.2准备`
OneTenTwo76
·
2023-01-26 03:41
深度学习
深度学习
pytorch
神经网络
基于
Seq2Seq
模型的机器翻译
如标题所见,这篇博客的主题就是基于
Seq2Seq
模型的机器翻译,它的主要任务就是将一种语言翻译为另一种语言,在这里我们以英语翻译成法语为例子,如I'mastudent.
我就算饿死也不做程序员
·
2023-01-26 03:41
tensorflow
自然语言处理
python
深度学习
tensorflow
机器翻译
seq2seq
keras
手把手教你用Keras实现英文到中文机器翻译
seq2seq
+LSTM
原文链接:https://blog.csdn.net/qq_44635691/article/details/106919244该模型实现的是英文到中文的翻译,下图为了更好展示模型架构借用大佬的图(这里没有用到Embeddings):本文完整代码:Github目录一、处理文本数据1.获得翻译前后的句子2.创建关于字符-index和index-字符的字典3.对中文和英文句子One-Hot编码二、建立
stay_foolish12
·
2023-01-26 03:41
自然语言处理
python
Transformer
Bert
enocoder
decoder
Seq2Seq
attention-
seq2seq
:实现中英翻译
在我前一篇博客用attention-
seq2seq
模型实现了法语-英语的翻译:基于pytorch的attention-
seq2seq
实现机器翻译。
Hilbob
·
2023-01-26 03:40
NLP
nlp
gru
机器翻译
pytorch
解决
seq2seq
+attention机器翻译中的技术小难题
1源码首先上源码:https://github.com/keon/
seq2seq
通常我们使用这个源代码来学习机器翻译的模型架构,但是会遇到诸多小技术问题。
料理码王
·
2023-01-26 03:10
NLP
机器翻译
人工智能
自然语言处理
seq2seq
attention
基于pytorch的attention-
seq2seq
实现机器翻译
按照pytorch官网的
seq2seq
例子整理了一下,使用GRU作为编解码器实现了带注意力的
seq2seq
模型,代码和数据集已上传到github(已更新,上传了训练好的模型和测试代码),有需自取:https
Hilbob
·
2023-01-26 03:10
NLP
深度学习
nlp
pytorch
机器翻译
gru
Seq2seq
+RNN 的英文翻译
bin/envPython3#-*-coding:utf-8-*-#@version:v1.0#@Author:MengLi#@contact:
[email protected]
#@FILE:torch_
seq2seq
.py
linxizi0622
·
2023-01-26 03:40
NLP
rnn
pytorch
深度学习
seq2seq
模型实现英文反义词翻译
一、
seq2seq
简介
seq2seq
模型是自然语言处理任务中一个常见的模型,于2014年由Google团队提出,该模型的创新之处在于将encoder-decoder框架应用到了RNN/LSTM中,文章中输入序列通过多层
ENJOYTHELIFE321
·
2023-01-26 03:09
python
深度学习
使用
Seq2Seq
实现中英文翻译
其中就有
Seq2Seq
模型。莱由
Seq2Seq
模型是序列到序列模型的简称,也被称为一种编码器
big_matster
·
2023-01-26 03:39
自然语言处理
深度学习
关于
Seq2Seq
的一些有用的博客、简书等
关于在学习
Seq2Seq
时查阅有帮助的网址的汇总,具体内容还没来得及整理,先记录一下。
Immortal stars
·
2023-01-25 09:35
RNN
Seq2Seq
sequence2sequence
Seq2Seq
一般是通过Encoder-Decoder(编码-解码)框架实现,Encoder和Decoder部分可以是任意的文字,语音,图像,视频
杨戬没有你我怎么活
·
2023-01-25 07:43
机器学习
#由浅入深# 从
Seq2seq
到 Transformer
文章目录1
Seq2seq
模型2Attention(注意力)机制2.1注意力机制原理2.2两种常见的注意力机制2.3Self-Attention3Transformer3.1WordEmbedding(词嵌入
energy_百分百
·
2023-01-23 08:23
NLP
深度学习
Transformer
attention
NLP
bert
seq2seq
Seq2Seq
Attention输入输出维度分析-最详细
1.Attention注意力机制就是为了解决当解码的序列太长时,越到后面效果就越差。因为在未引入注意力机制之前,解码时仅仅只依靠上一时刻的输出而忽略的编码阶段每个时刻的输出(“称之为记忆”)。注意力机制的思想在于,希望在解码的时刻能够参考编码阶段的记忆,对上一时刻输出的信息做一定的处理(也就是只注意其中某一部分),然后再喂给下一时刻做解码处理。这样就达到了解码当前时刻时,仅仅只接受与当前时刻有关的
Sophia$
·
2023-01-21 01:52
神经网络
神经网络
深度学习
PyTorch入门到进阶实战笔记三(NLP)
PyTorch入门到进阶实战笔记循环神经网络与NLP基础串讲RNN基础概念常见的RNN结构简单RNNs原理介绍双向RNNs原理介绍LSTM原理介绍双向LSTM网络原理介绍LSTM网络结构变种Attention结构
Seq2Seq
酸菜鱼_2323
·
2023-01-20 14:15
机器学习
深度学习
87.序列到序列学习(
seq2seq
)以及代码实现
1.机器翻译2.
Seq2Seq
双向RNN可以做encoder,但不能做decoder。
chnyi6_ya
·
2023-01-20 07:10
深度学习
学习
深度学习
DataWhale组队打卡学习营task04-2 注意力机制和
Seq2seq
模型
注意力机制在“编码器—解码器(
seq2seq
)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(contextvector)来获取输⼊序列信息。
牧阳MuYoung
·
2023-01-19 20:18
DataWhale学习训练营
论文阅读:Attention is all you need
文章目录前言前言在
seq2seq
中,encoder隐层的输出可以当作K,decoder隐层的输出作为Q,这里不能反过来,因为我们是根据注意力过滤掉K的内容,所以K对应encoder比如下面这张图,Q是running
live_for_myself
·
2023-01-19 12:45
论文阅读
python
项目笔记(一):实验——用神经网络实现midi音乐旋律音轨的确定
零、写在前面计划要用
seq2seq
模型做一个交响乐编曲程序,encodernetwork的输入是一个乐句旋律,decodernetwork的目标target是这个乐句完整的管弦配乐版本。
weixin_41405111
·
2023-01-18 20:13
项目笔记
神经网络
tensorflow
midi
音乐
旋律提取
李宏毅NLP学习笔记,NLP模型LAS。
转自:http://t.zoukankan.com/yanqiang-p-13257228.html语音识别模型:语音识别模型主要分为两种,一种是基于
seq2seq
的,一种是基于HMM的。
weixin_45799973
·
2023-01-18 19:43
自然语言处理
学习
语音识别
NLP-SR-LAS模型笔记
1、LAS:Listen,Attend,andSpell2、①
seq2seq
:一种重要的RNN模型,也称为Encoder-Decoder模型,可理解为一种N×M的模型。
JenoJisung
·
2023-01-18 18:02
NLP李宏毅
speech
recognition
自然语言处理
人工智能
医疗AI实践与思考汇总
深度学习技术在许多医学问题上取得成功:医学图像分类和分割:CNN文本中信息抽取、疾病预测:CNN、RNN、transformer病患语音识别和机器翻译:RNN、
Seq2Seq
体征检测和疾病风险评估:RNN
梦无痕123
·
2023-01-18 18:58
人工智能
transformer
深度学习
Transformer模型学习笔记
Transformer模型1
seq2seq
方法对比CNN:将序列分为多个窗口(卷积核),每个窗口具有相同的权重,可以带来平移不变性的好处;卷积核之间可以进行并行计算;根据局部关联性建模,若想获得更大的感受野
Cercis_Lee
·
2023-01-18 12:16
Transformer
transformer
深度学习
“万物皆可
Seq2Seq
” | 忠于原文的T5手写论文翻译
《ExploringtheLimitsofTransferLearningwithaUnifiedText-to-TextTransformer》摘要/AbstractTransferlearning,whereamodelisfirstpre-trainedonadata-richtaskbeforebeingfinetunedonadownstreamtask,hasemergedasapow
訢詡
·
2023-01-17 13:34
深度学习NLP方向
T5
google
nlp
手把手教你解读Bert结构及代码分析
所以他是一个传统的
Seq2Seq
结构,包括一个Encoder和Decoder。而Bert只用到了Encoder的部分,及下图所示。包含N个相同的transformer-Encoder。
learn-to-live
·
2023-01-17 07:27
AI
算法
自然语言处理
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他