E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
encoder-decoder
Grounded Conversation Generation as Guided Traverses in Commonsense Knowledge Graphs
任务描述user输入话语X(有m个单词),对话生成模型使用
encoder-decoder
框架产生回答ConceptGraphConstruction先找到出现在对话里的概念V_0,然后再去常识库找到1-
xiaomao979
·
2023-01-28 07:15
常识应用
机器学习
深度学习
人工智能
编码器解码器架构、Seq2Seq简要笔记
编码器解码器架构后续自然语言处理都基本使用这个架构来实现的Seq2Seq最早是用来做机器翻译的,现在用Bert比较多,Seq2Seq是一个
Encoder-Decoder
的架构,Seq2Seq模型的编码器使用的
思考实践
·
2023-01-27 11:54
#
NLP与推荐系统
seq2seq
attention
self-attention
seq2seq模型实现英文反义词翻译
一、seq2seq简介seq2seq模型是自然语言处理任务中一个常见的模型,于2014年由Google团队提出,该模型的创新之处在于将
encoder-decoder
框架应用到了RNN/LSTM中,文章中输入序列通过多层
ENJOYTHELIFE321
·
2023-01-26 03:09
python
深度学习
【论文阅读】CodeT5: Identifier-aware Unified Pre-trained
Encoder-Decoder
Models for Code Understanding
目录一、简介二、预训练a.Identifier-awareDenoisingPre-trainingb.IdentifierTagging(IT)c.MaskedIdentifierPrediction(MIP)d.BimodalDualGeneration三、实验发表于EMNLP2021paper地址:https://aclanthology.org/2021.emnlp-main.685.pd
知识的芬芳和温柔的力量全都拥有的小王同学
·
2023-01-25 13:25
nlp
nlp
【Pre-train】SpeechT5
SpeechT5:Unified-ModalEncoder-DecoderPre-trainingforSpokenLanguageProcessingcodeAbstract本文提出了一种基于
encoder-decoder
cxxx17
·
2023-01-25 13:55
TTS论文阅读
ASR论文阅读
语音识别
自然语言处理
人工智能
sequence2sequence
Seq2Seq一般是通过
Encoder-Decoder
(编码-解码)框架实现,Encoder和Decoder部分可以是任意的文字,语音,图像,视频
杨戬没有你我怎么活
·
2023-01-25 07:43
机器学习
Attention Model详解
在
Encoder-Decoder
框架中,在预测每一个yi时对应的语义编码c都是一样的,也就意味着无论句子X中的每个单词对输出Y中的每一个单词的影响都是相同的。
飞驰的拖鞋
·
2023-01-21 01:21
自然语言处理
深度学习
自然语言处理
深度学习
Attention 理解汇总
在
Encoder-Decoder
中,预测每个Decoder的语义编码c是一样的,句子X中每个词对输出Y的每个词的影响都是相同的。
Mark_Aussie
·
2023-01-21 01:50
nlp
自然语言处理
关于Attention的超详细讲解
文章目录一、动物的视觉注意力二、快速理解Attention思想三、从
Encoder-Decoder
框架中理解为什么要有Attention机制四、Attention思想步骤五、Self-Attention5.1Self-Attention
WGS.
·
2023-01-21 01:20
#
深度学习
#
NLP
机器翻译
自然语言处理
人工智能
Transformer-Attention is all your need论文详读-PartⅡ(模型架构)
abs/1706.03762*黑字——原文翻译*绿字——主观分析(未对全部细节进行分析,仅针对本文内容补充)3.ModelArchitecture大多数具有竞争力的神经序列转换模型都有一个编码器-解码器(
Encoder-Decoder
蛮有趣的_
·
2023-01-19 15:49
深度学习
transformer
深度学习
人工智能
论文阅读笔记:Attention is All You Need
目录论文标题:AttentionisAllYouNeed1.摘要2.前言3.模型结构自注意力机制多头自注意力机制注意力机制在Transformer中的应用1.摘要过去最优的模型是带有attention连接的
encoder-decoder
Bruce-XIAO
·
2023-01-19 12:12
【机器学习】
深度学习
自然语言处理
transformer
NLP-SR-LAS模型笔记
1、LAS:Listen,Attend,andSpell2、①seq2seq:一种重要的RNN模型,也称为
Encoder-Decoder
模型,可理解为一种N×M的模型。
JenoJisung
·
2023-01-18 18:02
NLP李宏毅
speech
recognition
自然语言处理
人工智能
如何利用PyTorch实现一个
Encoder-Decoder
结构进行英法互译
数据集下载地址:https://download.pytorch.org/tutorial/data.zipdownload.pytorch.org数据集在eng-fra.txt文件中,每一行是一对儿英语和法语之间的互译。运行以下代码,请确保PyTorch=1.9.0torchtext=0.10.0Encoder中的数据流:Decoder中的数据流:带有注意力机制Decoder的数据流:#Enco
_Old_Summer
·
2023-01-18 09:16
算法
pytorch
深度学习
最容易理解的Transformer解析
目录Transformer提出的背景Transformer架构Transformer解析
Encoder-Decoder
解析Self-AttentionTheBeastWithManyHeads位置编码Transformer
LN烟雨缥缈
·
2023-01-17 15:23
注意力机制
Transformer
深度学习
自然语言处理
神经网络
视觉检测
机器学习
自注意力机制
文章目录前言文献阅读摘要框架目标函数主要结果深度学习注意力机制的理解
Encoder-Decoder
框架自注意力机制总结前言Thisweek,thepaperwhichdescribeadeeplearningframeworktoextracttheshort-termlocaldependencepatternbetweenvariablesinlong-andshort-termtimeser
hehehe2022
·
2023-01-17 09:43
深度学习
神经网络
【文献阅读笔记】之Pixel-level pavement crack segmentation with
encoder-decoder
network
DOI:10.1016/j.measurement.2021.109914年份:2021标题利用编码器-解码器网络在像素级别对路面裂缝进行分割摘要:关键信息:1.这篇文章提出了一种针对裂缝分割得编码器-解码器网络(EDNet)来克服裂缝像素和非裂缝像素数量的不均衡。会造成很多假阴性错误(错误的否定,例如:有裂缝没检测出来)2.本文提出的EDNet解码器是一种自动编码器,将groundtruth自编
cv研究僧
·
2023-01-17 05:21
裂缝检测
文献
算法
计算机视觉
卷积神经网络
Hybrid LSTM and
Encoder-Decoder
Architecturefor Detection of Image Forgeries的复现梳理
论文就是标题这篇,19年bappy大佬的又一篇顶刊,整体工作是对他们之前一篇也是基于LSTM实现复制篡改检测工作的改进,但这篇给了源码。code:jawadbappy/forgery_localization_HLED:Implementationof"HybridLSTMandEncoder-DecoderArchitectureforDetectionofImageForgeries"pape
ztg111
·
2023-01-16 12:14
python
图像处理
深度学习
基于BERT的新闻文本分类
2017年Transformer模型横空出世,
encoder-decoder
的创新效果显著,2018年Google又提出了BERT预训练模型,可谓是大大推动了NLP的进步,关于transformer和BERT
LuKaiNotFound
·
2023-01-16 06:42
深度学习
人工智能
深度学习
自然语言处理
语言模型
nlp
【图像分割论文阅读】DeepLabV3+:
Encoder-Decoder
with Atrous Separable Convolution for SemanticImageSegmentation
CVPR2018论文地址Encoder-DecoderwithAtrousSeparableConvolutionforSemanticImageSegmentation背景空间金字塔池化SPP以及编解码器
Encoder-decoder
LawenceRay
·
2023-01-14 12:48
深度学习
深度学习论文阅读
SENet(Squeeze-and-Excitation Networks)
什么是计算机视觉注意力注意力机制就是对输入权重分配的关注,最开始使用到注意力机制是在编码器-解码器(
encoder-decoder
)中,注意力机制通过对编码器所有时间步的隐藏状态做加权平均来得到下一层的输入变量
LN烟雨缥缈
·
2023-01-13 22:03
注意力机制
深度学习
神经网络
算法
视觉检测
Seq2Seq模型与Attention机制
一、Seq2Seq模型seq2seq模型是一个
Encoder-Decoder
结构的网络,它的输入是一个序列,输出也是一个序列。
Chiancc
·
2023-01-12 10:45
深度学习
自然语言处理
神经网络
深度学习
白话机器学习-Attention
前一阵打算写这方面的文章,不过发现一个问题,就是如果要介绍Transformer,则必须先介绍SelfAttention,亦必须介绍下Attention,以及
Encoder-Decoder
框架,以及GRU
秃顶的码农
·
2023-01-12 06:08
机器学习算法
机器学习
人工智能
attention的笔记
参考文章:https://blog.csdn.net/Tink1995/article/details/105012972Encoder-Decoder:在NLP中
Encoder-Decoder
框架主要被用来处理序列
可莉害了呢
·
2023-01-11 10:57
深度学习
transformer
paper:DeepAR: Probabilistic forecasting with autoregressive recurrent networks DeepAR模型
DeeparDeepar与普通的时序预测模型最大的不同就在于,其预测输出的是一个概率分布,而不是一个单一的值,其假设输出是一个高斯分布理论讲解其也是一个
encoder-decoder
模型,其中encoder
David_7788
·
2023-01-10 16:47
深度学习
人工智能
Distillation-guided Image Inpainting 论文阅读笔记
这是ICCV的文章,但我只是随便读一下,记录一些可能以后会参考的机制网络结构图如下:主要就是用了两个网络,参考了知识蒸馏中教师-学生网络的方式,用完整图像
encoder-decoder
重建过程中的特征图来监督
sysu_first_yasuo
·
2023-01-10 15:18
论文阅读笔记
深度学习
cnn
计算机视觉
GNN algorithm(5): Graph
Encoder-Decoder
Mechanism
介绍GraphRepresentativeLearning的
Encoder-Decoder
框架。
天狼啸月1990
·
2023-01-08 15:18
GNN
papers
人工智能
深度学习
生成模型的中Attention Mask说明
生成模型是基于Seq-to-Seq(
Encoder-Decoder
)结构,输入的文本经过Encoder编码得到向量再输入到Decoder解码生成一个文本。
xuanningmeng
·
2023-01-07 07:47
NLP
阅读笔记--《Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond》
blog.csdn.net/dcrmg/article/details/80327069Sequence-to-SequenceSeq2Seq是一类End-to-End算法框架,是从序列到序列转换模型框架,一般是通过
Encoder-Decoder
..Reputation
·
2023-01-04 20:07
机器学习
NLP学习笔记——Transformer模型
该论文提出的Transformer模型,基于
encoder-decoder
架构,抛弃了传统的RNN、CNN模型,仅由Attention机制实现,并且由于encoder端是并行计算的,训练时间大大缩短。
孤酒以之
·
2023-01-04 18:19
NLP学习笔记
机器学习
人工智能
神经网络
自然语言处理
nlp
【论文笔记】DDRNet论文阅读笔记及复现
DeepDual-resolutionNetworksforReal-timeandAccurateSemanticSegmentationofRoadScenesgithub:https://github.com/ydhongHIT/DDRNetpaddlepaddle复现:notebook在线快速体验轻量级语义分割模型大致分为2类:
Encoder-Decoder
嘟嘟太菜了
·
2023-01-04 18:49
深度学习
语义分割
CNN
DDRNet
深度学习
语义分割
轻量级模型
caption重要性 image_Image Caption 深度学习方法综述
总体来说,目前深度学习领域ImageCaption的方法仍主要是
Encoder-Decoder
。基于此,attention机制的引入较为显著地提升了性能。
weixin_39984952
·
2023-01-03 18:30
caption重要性
image
《Show and Tell: A Neural Image Caption Generator》阅读笔记及相关知识
Encoder-Decoder
在ImageCaption中,使用到了encode
对酒当鸽
·
2023-01-03 18:57
Deep
Learing
NIC
NIC
CNN
LETM
注意力机制
目录1.引言2.attention机制1.引言因为
encoder-decoder
的预测精度有限,容易导致眉毛胡子一把抓,无法抓住重点2.attention机制attention机制就是将之前encode-decode
菜虚空
·
2023-01-03 17:30
循环神经网络
p2p
蓝桥杯
gnu
监督学习、无监督学习、半监督学习、自监督学习的区别与联系
缺点:标签很难获取,且提取的特征依赖于标签(即特定任务),而不是数据本身的特征无监督学习:所有数据都没有标签,通过
Encoder-Decoder
结构对输入进行编解码操作,解码输出的结果与原始输入图像对比计算
DopplerBoy
·
2023-01-02 10:28
学习
深度学习
人工智能
注意力机制
Seq2Seq一般是通过
Encoder-Decoder
(编码-解码
酒吧炒饭
·
2023-01-01 14:25
深度学习
神经网络
rnn
cnn
transformer
深度学习系列31:Dalle生成模型
1.Dalle模型前面介绍过VAVQE模型,它本质上是一个
encoder-decoder
模型,只是中间加了一个codebook。这样我们就可以把尺寸大大缩小。
IE06
·
2022-12-31 07:15
深度学习系列
深度学习
pytorch
transformer
PRIMERA Pyramid-based Masked Sentence Pre-training for Multi-document Summarization
Pyramid-basedMaskedSentencePre-trainingforMulti-documentSummarization作者:加拿大哥伦比亚大学,艾伦人工智能研究所,华盛顿大学Abstract模型名字:PRIMERA用途:多文档表示预训练模型,用于Summarization预训练目标:跨文档连接和聚合信息模型结构:
encoder-decoder
be_humble
·
2022-12-30 21:00
论文笔记
nlp
python
深度学习attention原理_关于深度学习:Attention 及 self-attention
1Attention的提出在机器翻译(NMT)的任务中,为解决RNN中的
Encoder-Decoder
的基础上target端输入固定长度的问题,提出了Align方式,这也是Attention的开始。
weixin_39773158
·
2022-12-30 10:15
深度学习attention原理
Multi- Head self-Attention 机制详解
原文链接:https://www.jianshu.com/p/e647d3a10d9c在「拆Transformer系列一:
Encoder-Decoder
模型架构详解」中有简单介绍Attention,Self-Attention
薛定谔的炼丹炉!
·
2022-12-30 10:43
NLP基础
自然语言处理
深度学习
神经网络
自然语言处理之Seq2seq的注意力机制,循环模型的问题,self-attention及Transformer结构讲解
Encoder-decoder
模型特点:1.典型的end2end模型2.不论序列长度,固定大小的中间向量,可能造成信息缺失(前面的信息被后面的覆盖)3.根据不同的任务可以选取不同的编码器和解码器(cnn
倪风俠
·
2022-12-30 10:12
深度学习
transformer
自然语言处理
深度学习
语言模型(五)—— Seq2Seq、Attention、Transformer学习笔记
机器翻译本篇笔记中要开始介绍的
Encoder-Decoder
模型最初是由机器翻译这一任务中脱产而来,所以先从此入手。
知了爱啃代码
·
2022-12-29 23:25
NLP-自然语言处理笔记
nlp
自然语言处理
深度学习
attention
人工智能
医疗影像分割
从某种意义上来说U-Net整体的流程是编码和解码(
encoder-decoder
)的过程,信息的压缩就是编码,信息的提取就是解码,比如图像,文本
HammerHe
·
2022-12-28 17:44
cnn
深度学习
人工智能
深度学习----Transformer模型之图示进阶篇
arxiv上的一篇文章《Attentionisallyouneed》,提出解决sequencetosequence问题的transformer模型,用全attention的结构代替了lstm,抛弃了之前传统的
encoder-decoder
sakura小樱
·
2022-12-28 16:40
人工智能
深度学习
自然语言处理
机器学习
trainsformer
深度学习----Transformer模型之图示进阶篇
arxiv上的一篇文章《Attentionisallyouneed》,提出解决sequencetosequence问题的transformer模型,用全attention的结构代替了lstm,抛弃了之前传统的
encoder-decoder
sakura小樱
·
2022-12-28 16:38
人工智能
深度学习
自然语言处理
机器学习
trainsformer
attention机制
两个RNN结构组合,形成
Encoder-Decoder
模型,
verse_armour
·
2022-12-28 10:39
深度学习
人工智能
有关于decoder中的past_key_values参数
我们都知道,
encoder-decoder
模型在进行generate的时候,会重复地调用decoder(i.e.,auto-regressive)。
Reza.
·
2022-12-28 00:33
深度学习
人工智能
python
深度学习
pytorch
语义分割联合边缘检测的多任务学习思路总结
基于
Encoder-Decoder
结构的网络模型已经将语义
小天要奔跑
·
2022-12-26 04:48
语义分割
深度学习
动手学深度学习(四十四)——Seq2Seq原理与实现
动手实现Seq2Seq1.编码器2.解码器3.损失函数4.训练5.预测6.预测和评估7.用训练好的Seq2Seq模型将英语翻译成法语三、总结一、什么是seq2seq(序列到序列的学习) 使用两个RNN设计
Encoder-Decoder
留小星
·
2022-12-24 19:31
深度学习
机器翻译
自然语言处理
Attention based ASR(LAS)
目录1.Encoder-Decoder2.引入Attention的
Encoder-Decoder
(AED)3.LAS3.1listen3.2Attention3.3spell4.LAS训练5.总结1.Encoder-Decoder
qq_50749521
·
2022-12-24 12:22
人工智能
语音识别
深度学习
基于C++实现对UNet图像分割的部署
1.Unet网络介绍UNet它是一个
encoder-decoder
的结构,那么encoder对应就是这个u型网络左边这半部分,也就是我们特征提取及下采样这部分。
@BangBang
·
2022-12-23 07:58
object
detection
c++
深度学习
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他