E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Auto-encoder
【学习笔记】李宏毅2021春机器学习课程第8.1节:自编码器(一)
4自编码器并不是一个新想法5去噪的自编码器1引言:自监督学习框架在讲
Auto-Encoder
之前,我们再来回忆一下自监督学习的框架,因为其实
Auto-Encoder
也可以算是Self-SupervisedLearning
Harryline-lx
·
2022-04-08 08:49
机器学习
机器学习
深度学习
人工智能
神经网络
Variational
Auto-encoder
(VAE)变分自编码器
介绍VariationalAuto-encoder(VAE)变分自编码器,是无监督复杂概率分布学习的最流行的方法之一。VAE的最大特点是模仿自动编码机的学习预测机制,在可测函数之间进行编码、解码。同GAN类似,其最重要的idea是基于一个令人惊叹的数学事实:对于一个目标概率分布,给定任何一种概率分布,总存在一个可微的可测函数,将其映射到另一种概率分布,使得这种概率分布与目标的概率分布任意的接近。可
612twilight
·
2022-02-06 11:38
论文阅读“Adaptive Graph
Auto-Encoder
for General Data Clustering”
LiX,ZhangH,ZhangR.AdaptiveGraphAuto-EncoderforGeneralDataClustering[J].arXivpreprintarXiv:2002.08648,2020.摘要翻译基于图的聚类在聚类领域具有重要的作用。近年来,关于图卷积神经网络的研究在图形类型数据方面取得了令人瞩目的成功。然而,在一般的聚类任务中,不存在数据的图结构,因此构造图的策略对性能至
掉了西红柿皮_Kee
·
2021-05-17 12:04
详解变分自编码器VAE(Variational
Auto-Encoder
)
前言过去虽然没有细看,但印象里一直觉得变分自编码器(VariationalAuto-Encoder,VAE)是个好东西。趁着最近看概率图模型的三分钟热度,我决定也争取把VAE搞懂。于是乎照样翻了网上很多资料,无一例外发现都很含糊,主要的感觉是公式写了一大通,还是迷迷糊糊的,最后好不容易觉得看懂了,再去看看实现的代码,又感觉实现代码跟理论完全不是一回事啊。终于,东拼西凑再加上我这段时间对概率模型的一
越来越胖的GuanRunwei
·
2021-05-01 19:51
深度学习
笔记
Tensorflow(7):RNN,LSTM,GRU,
Auto-Encoder
,VAE
1、时间序列表示方法sequenceembedding[b,seq_len,feature_len]b:句子数量seq_len:单词数量feature_len单词特征[b,28,28]从sequence角度理解,把每一个图片当作28个时间序列的输入,每个输入有28个特征。共有b个图片。每个单词对应的三个波形,每个波形在每个时刻对应一个wordvector,每个时刻代表当前输入的word。howto
weixin_51182518
·
2021-01-30 00:31
python
深度学习
tensorflow
稀疏自编码器_TF2.0实现稀疏自编码
引自基于tf实现稀疏自编码和在推荐中的应用稀疏自编码自编码器(
Auto-Encoder
)顾名思义,即可以利用自身的高阶特征编码自己。
weixin_39775577
·
2020-12-12 12:26
稀疏自编码器
稀疏自编码器_基于tf实现稀疏自编码和在推荐中的应用
稀疏自编码自编码器(
Auto-Encoder
)顾名思义,即可以利用自身的高阶特征编码自己。
weixin_39928993
·
2020-11-25 20:09
稀疏自编码器
A graph
auto-encoder
model for miRNA-disease associations prediction 论文解析
Agraphauto-encodermodelformiRNA-diseaseassociationsprediction(用于miRNA-disease关联预测的图自动编码模型)该文章由中科院新疆理化所的尤老师组,发表在《BriefingsinBioinformatics》期刊上文章目录摘要一、Introduction二、Materialsandmethods1.HumanmiRNA-disea
Struggle~
·
2020-11-19 11:43
生物网络文章
一文看懂自编码器、堆叠自编码器、稀疏自编码器、降噪自编码器
实际上,自编码器(
Auto-Encoder
)是一个较早的概念了,比如Hinton等人在1986,1989年的工作。(说来说去都是这些人呐。。。)
大头儿子er
·
2020-09-14 09:46
机器学习
自编码器及相关变种算法简介
自编码器及相关变种算法简介分类:深度学习2014-03-3122:48524人阅读评论(0)收藏举报自编码AESparseAEContractiveAEDenosingAE 本文对自编码器(
Auto-Encoder
pi9nc
·
2020-09-14 09:25
Machine
learning
paper8:Exploring Disentangled Feature Representation Beyond Face Identification 2018CVPR
构建了一个身份提取和消除的两路
auto-encoder
框架(D2AE),这个框架反向学习用于身份验证的身份提取f
LiuShuangmax
·
2020-09-12 18:53
paper
变分自编码器Variational
Auto-Encoder
(VAE)
什么是VAEVAE与GAN都是做生成的model,用来构建一个从隐变量Z生成目标数据X的模型,其中是有差别的。GAN与VAE都是在假设data服从某些常见的分布,比如正太分布,前提下去实现的,训练一个X=g(Z)的model,GAN与VAE都是在进行分布之间的变换,将原来的概率分布映射到了训练集的概率分布。因为我们只知道数据的真实样本,并不知道其data分布表达式,判断生成分布与真实分布的相似度对
亦乐Catherine
·
2020-09-11 21:04
Learning
notes
概率论
VAE
概率论与数理统计
generator
2020李宏毅学习笔记——44.Unsupervised learning Deep
Auto-encoder
1.先来介绍一下encoderAuto-encoder因为对于encoder来说,我们有输入,但是输出的code是什么样子,我们是不知道的。没关系,先learn一个decoder,上下两个东西如果单独拿出来是没有办法train的,所以没法单独,就接在一起,一起学,就可以了。这个时候的输入和输出都有了。对于encoder来说,输出的code通常维度要小于输入的维度,用于Compactrepresen
是汤圆啊
·
2020-08-25 17:50
李宏毅机器学习Lecture 16 Unsupervised Learning -
Auto-encoder
课程笔记
Lecture16UnsupervisedLearning-Auto-encoder课程笔记auto-encoderstartingfromPCAdeepauto-encoderauto-encoder在文字组的应用
Auto-encoder
didiqiq
·
2020-08-25 17:14
李宏毅unsupervised learning: Deep
Auto-encoder
课堂笔记
PCA做法deepauto-encoder做法---deepauto-encoder还原的图会更接近原图,但这并不是重点,要不然直接输出原图就好了,降维干嘛重点是降维后能分开例子:-----转载于:https://www.cnblogs.com/lunotebook/p/11512741.html
aian8769
·
2020-08-25 16:59
李宏毅机器学习课程笔记6:Unsupervised Learning -
Auto-encoder
、PixelRNN、VAE、GAN
台湾大学李宏毅老师的机器学习课程是一份非常好的ML/DL入门资料,李宏毅老师将课程录像上传到了YouTube,地址:NTUEEML2016。这篇文章是学习本课程第16-18课所做的笔记和自己的理解。Lecture16:UnsupervisedLearning-Auto-encoderAuto-encoder在手写数字识别任务中,想训练一个NNencoder,得到图像的精简表达。但做的是无监督学习,
徐子尧
·
2020-08-25 16:11
李宏毅机器学习课程
Deep
Auto-encoder
的代码实现
李宏毅讲
Auto-encoder
视频:链接地址看了上面的
Auto-encoder
视频,想试着做一下里面的DeepAuto-encoder,看看效果如何,神经网络架构如下:按照上面的网络架构,采用Keras
CSU_ICELEE
·
2020-08-25 03:57
深度学习
GRASS: Generative Recursive Autoencoders for Shape Structures
整个方法是三步走的,首先是一个基于RVNN的
auto-encoder
,这一步的主要工作其实是找出合理的层级结构,也顺便进行了预训练。
莫谷莫谷
·
2020-08-25 01:07
三维生成
#04
auto-encoder
作为最古老的方法之一,
auto-encoder
也是最简单的一种网络.对mnist试了下,结果还可以(没有做任何预处理)
auto-encoder
相关的介绍和论文都很多,我也没有心思一点一点的抄过来简单来说就是不仅仅输出
idid1
·
2020-08-25 00:47
machine
learning
杂谈
原创
杂谈
d
machine
learning
【计算机视觉】卷积自编码器:用卷积层构建
auto-encoder
当输入是图像时,使用卷积神经网络是更好的。卷积自编码器的编码器部分由卷积层和MaxPooling层构成,MaxPooling负责空域下采样。而解码器由卷积层和上采样层构成。50个epoch后,损失val_loss:0.1018。input_img=Input(shape=(28,28,1))x=Convolution2D(16,(3,3),activation='relu',padding='sa
littlemichelle
·
2020-08-24 03:35
计算机视觉
Pytorch之GAN实战
AE,VAE原理原理(encoder-neck-reconstruct,降维)自动编码机
Auto-Encoder
(AE)由两部分encoder和decoder组成,encoder输入x数据,输出潜在变量
Hero13146688
·
2020-08-22 11:59
Pytorch
Auto encoder 和Denoising auto encoder分别和PCA之间的关系(学习笔记)(2)
【
auto-encoder
】原文链接虽然不是万众期待,不过,这个大坑的第二部分也新鲜滚热辣的出炉了(符号使用上节的约定),这次的内容是Denoisingautoencoder,整个坑我打算分四节,这个就是其中的第二节
hzyido
·
2020-08-21 21:07
使用
auto-encoder
实现数据压缩、分类预测
原理简介:(文章编辑bug太多,白码字了,只能简化说了。)通过encoder-decoder的结构形成一个负、正金字塔的瓶颈结构(必须是瓶颈结构,才能起到压缩的效果,不然就成了复制了),对数据进行压缩并还原,以还原程度为指标来训练网络。训练完网络就有了一个encoder和decoder,decoder先不管,encoder能把数据压缩,因为压缩还能还原,证明原数据有冗余,压缩后的code可以直接用
秦伟H
·
2020-08-17 12:42
tensorflow
机器学习
python
AutoEncoder以及TensorFlow-2.0实现代码
自编码器(
Auto-encoder
)
Auto-encoder
输入前馈神经网络的一种,它借助了稀疏编码的思想,目标是借助抽取到的高阶特征来重构输入,而不只是简单的复制。
Forlogen
·
2020-08-17 11:24
Deep
Learning
tensorflow tutorials(十):用tensorflow实现降噪自编码器(Denoising
Auto-Encoder
)
声明:版权所有,转载请联系作者并注明出处:http://blog.csdn.net/u013719780?viewmode=contents降噪自编码器是PascalVincent提出来的,有兴趣的童鞋可以看PascalVincent的论文原文StackedDenoisingAutoencoders:LearningUsefulRepresentationsinaDeepNetworkwithaL
风雪夜归子
·
2020-08-12 14:19
tensorflow简明教程
Autoencorder理解(5):VAE(Variational
Auto-Encoder
,变分自编码器)
reference:http://blog.csdn.net/jackytintin/article/details/53641885近年,随着有监督学习的低枝果实被采摘的所剩无几,无监督学习成为了研究热点。VAE(VariationalAuto-Encoder,变分自编码器)[1,2]和GAN(GenerativeAdversarialNetworks)等模型,受到越来越多的关注。笔者最近也在学
Alanyannick
·
2020-08-08 22:41
VAE
DL
Deep
Reinforcement
Learning
GANs
深度学习:神经网络中的前向传播和反向传播算法推导
这是一个常见的三层神经网络的基本构成,LayerL1是输入层,LayerL2是隐含层,LayerL3是隐含层,当我们输入x1,x2,x3等数据时,通过隐含层的计算、转换,输出你的期望,当你的输入和输出是一样的时候,成为自编码模型(
Auto-Encoder
raintungli
·
2020-08-04 00:45
算法
第25章 Pytorch 如何高效使用GPU
深层模型的算法,如BP,
Auto-Encoder
,CNN等,都可以写成矩阵运算的形式,无须写成循环运算。然而,在单核CPU上执行时,矩阵运算会被展开成循环的形式,本质上还是串行执行。
kyle1314608
·
2020-07-29 20:13
006-深度学习与NLP简单应用
Auto-Encoder
如果原始图片输入后经过神经网络压缩成中间状态(编码过程Encoder),再由中间状态解码出的图片与原始输入差别很小(D解码过程ecoder),那么这个中间状态的东西,就可以用来表示原始的输入
weixin_30635053
·
2020-07-13 17:14
机器学习中,什么是预测性维护,常见技术有哪些
本文要点:学习预测性维护系统(PMS),监控未来的系统故障并提前安排维护时间表探讨如何构建机器学习模型进行系统的预测性维护了解机器学习的处理步骤,如选择模型以及用
Auto-Encoder
技术去除传感器噪声了解如何训练机器学习模型
乐投网
·
2020-07-05 06:20
机器学习
预测性维护
自编码器与堆叠自编码器简述
实际上,自编码器(
Auto-Encoder
)是一个较早的概念了,比如Hinton等人在1986,1989年的工作。(说来说去都是这些人呐。。。)
zzzkk2009
·
2020-07-04 04:41
数据挖掘&机器学习&人工智能
变分自动编码机(VAE)理解和实现(Tensorflow)
你需要知道的:自动编码机
Auto-Encoder
(AE)由两部分encoder和decoder组成,encoder输入x数据,输出潜在变量z,decoder输入z然后输出一个x’,目的是让x’与x的分布尽量一致
ppp8300885
·
2020-07-02 14:06
计算机视觉
深度学习
机器学习
Tensorflow下VAE(变分自动编码器)在MNIST数据集下的实验
首先简单介绍一下AE和VAE然后在完成代码实践一、什么是自编码器(
Auto-encoder
)自动编码器是一种数据的压缩算法,其中数据的压缩和解压缩函数是数据相关的、有损的、从样本中自动学习的。
小刘同学_
·
2020-07-01 13:22
机器学习
【深度学习】VAE(Variational
Auto-Encoder
)原理
一、AE与VAEAE(
Auto-Encoder
)是一个应用很广泛的机器学习方法。
NooahH
·
2020-07-01 12:02
深度学习
变分自编码器(Variational
auto-encoder
, VAE)理解及教程
文章目录导读引言介绍详细教程导读小编在读一篇论文时遇到了变分自编码器(Variationalauto-encoder,VAE)的概念,我也是第一次接触,于是乎翻遍了网上现有的好多资料,稍微理解了一点,整理下来,希望能帮助大家。如有不对地方,还请各位下方评论区批评指正,感谢您的交流指导~~引言首先附上关于变分自编码器的论文Auto-EncodingVariationalBayes[PDF]变分自编码
Mr.Ma-master
·
2020-07-01 06:39
机器学习&深度学习
Variational
Auto-encoder
(VAE)变分自编码器-Pytorch
importosimporttorchimporttorch.nnasnnimporttorch.nn.functionalasFimporttorchvisionfromtorchvisionimporttransformsfromtorchvision.utilsimportsave_image#配置GPU或CPU设置device=torch.device('cuda'iftorch.cuda
weixin_30446613
·
2020-07-01 05:24
[深度学习]半监督学习、无监督学习之Variational
Auto-Encoder
变分自编码器(附代码)
论文全称:《Auto-EncodingVariationalBayes》论文地址:https://arxiv.org/pdf/1312.6114.pdf论文代码:keras版本:https://github.com/bojone/vaepytorch版本:https://colab.research.google.com/github/smartgeometry-ucl/dl4g/blob/mas
Thorrrrrrrrrr
·
2020-07-01 04:43
无监督学习
半监督学习
机器学习
深度学习
神经网络
深度学习 NS方程
AMachine-LearningbasedsolverforNavier-StokesEquationsusingFiniteVolumeDiscretizationhttps://arxiv.org/abs/2005.08357用
auto-encoder
positiveone
·
2020-06-30 14:24
机器学习
深度学习
堆叠降噪自动编码器 Stacked Denoising Auto Encoder(SDAE)
自动编码器(
Auto-Encoder
,AE)自编码器(autoencoder)是神经网络的一种,经过训练后能尝试将输入复制到输出。自编码器内部有一个隐藏层h,可以产生编码(code)表示输入。
-流风回雪-
·
2020-06-30 12:04
目标跟踪
深度学习算法在不同任务中的使用到的相同feature/trick合集(持续更新)
NLP任务的Transformer模型和换脸任务deepfake(原始版本)Transformer的multi-head机制
auto-encoder
版本的deepfake的upscale(反卷积)中使用了
ygfrancois
·
2020-06-30 07:05
深度学习
[生成对抗网络GAN入门指南](2)理解生成对抗网络
二.
Auto-Encoder
将输入先进行编码,然后经过多层感知器的神经网络,相当于进行了降维和数据压缩。而在生成模型中,我们仅适用压缩后编码到解码器的这一后半部分。
gdtop818
·
2020-06-28 20:02
GAN
Adversarial
Network
paper_GAN
Pytorch 高效使用GPU的操作
深层模型的算法,如BP,
Auto-Encoder
,CNN等,都可以写成矩阵运算的形式,无须写成循环运算。然而,在单核CPU上执行时,矩阵运算会被展开成循环的形式,本质上还是串行执行。
·
2020-06-27 14:05
论文笔记:《FoldingNet:Point Cloud
Auto-encoder
via Deep Grid Deformation》
Introduction:本篇论文,介绍了一个通过深度网格变形的点云自编码器(AE)。提出了新的端到端graph-based编码器和folding-based解码器。因为点云结构是不规则的,一般由稀疏的三维点表示,很难应用到传统的深度学习的框架中(比如CNN中,每个样本点的相邻样本点需要在固定的一个地方以便于卷积,但是点云中的样本点做不到这样),一种解决方法是将点云体素化来模拟图像,但是这种方法存
wangyc1208
·
2020-06-27 13:32
三维人体重构
论文笔记:Embedding Graph
Auto-Encoder
with Joint Clustering via Adjacency Sharing
前言本文用GNN来学习适合于聚类任务的节点表示.比较特别的是,本文同时考虑了K-Mean聚类和谱聚类来实现更好的聚类.提出了EmbeddingGraphAuto-EncoderwithJointClusteringviaAdjacencySharing(EGAE-JOCAS)以解决深度图聚类问题论文链接:https://arxiv.org/pdf/2002.08643.pdf对于平滑度和联合聚类的
饮冰l
·
2020-06-26 02:45
图与生成模型
图神经网络
聚类
深度学习
神经网络
人工智能
算法
文本匹配论文及pytorch版复现(一):DRCN
代表,两句中字是否在另一句中出现,若是为1,若否为02、层次RNN和互注意力机制原始输入x,通过RNN获取隐层表示h,将两句的隐层表示hi,hj通过互注意力机制,获取注意力表示ai,aj3、自动编码器
auto-encoder
Young Panda
·
2020-06-25 04:11
pytorch
text
matching
文本匹配
深度学习与神经网络(十三)——
Auto-Encoder
自编码神经网络
自动编码器,也就是自编码神经网络,是神经网络的一种采用无监督学习的方式对高维数据进行高效的特征提取和特征表示,在学术界和工业界都大放异彩我们之前看的都是监督学习但是生活中的大量的数据都是没有label的现在来看非监督学习机器学习领域的三大方向强化学习(樱桃)、监督学习(蛋糕的外皮)、非监督学习为什么需要非监督学习?降维利用大量的无标签数据https://projector.tensorflow.o
hxxjxw
·
2020-06-23 17:17
基于tensorflow实现稀疏自编码和在推荐中的应用
稀疏自编码自编码器(
Auto-Encoder
)顾名思义,即可以利用自身的高阶特征编码自己。
Thinkgamer_
·
2020-06-21 20:26
#
深度学习算法
SeqGAN
SequenceGenerativeAdversarialNetswithPolicyGradient》github:python2python3GAN已经在视觉领域取得了斐然的成就,它可以以一种直观而又精妙的方式生成高质量的图像,逐渐遮住了
Auto-encoder
Forlogen
·
2020-06-21 20:29
GAN
NLP
Reading
notes
2017-6-25 今日收集
时间序列金融Deeptrader:DeepLearninginFinance(
Auto-encoder
)O网页链接『HitoshiHarada,CTOatAlpaca-DeepLearninginFinanceSummit
hzyido
·
2020-04-02 01:41
神经网络算法
如果你希望你的输出和原始输入一样,那么就是最常见的自编码模型(
Auto-Encoder
)。如果你的输出和原始输入不一样
煮饺子的茶壶
·
2020-03-21 11:23
上一页
1
2
3
4
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他