E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
自编码器
《深度学习》学习笔记(一):稀疏
自编码器
(Sparse Autoencoder)
本笔记主要记录学习《深度学习》的总结体会。如有理解不到位的地方,欢迎大家指出,我会努力改正。在学习《深度学习》时,我主要是通过AndrewNg教授在http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial上提供的UFLDL(UnsupervisedFeatureLearningandDeepLearning)教程,本文在写的过程中
chenynCV
·
2020-07-08 08:02
深度学习
稀疏自编码器
matlab
UFLDL
Deep
Learning
深度学习
深度学习 发展 优缺点
在07年,hitton提出了利用
自编码器
来stackbystack的学习图像的表征,然后堆叠起来作为神经网络参数的初始化值,然后在统一采用反向传播算法(BP算法)进行训练
sunflower_sara
·
2020-07-08 06:56
机器学习
人脸识别的损失函数解读
最近在研究
自编码器
提取特征做分类和生成、重建。所以细致了解人脸识别的各种损失函数!
元大宝
·
2020-07-07 22:12
人脸识别
基于VAE 利用重建概率的异常检测
网络学习目标变成使变量的分布函数逼近真实的分布函数,这个问题的求解需要采用变分方法,因此取名变分
自编码器
。
368chen
·
2020-07-07 19:55
项目-深度学习
人工智能
一文纵览无监督学习研究现状:从
自编码器
到生成对抗网络
这篇文章确实写的不错,总结无监督学习的方法如下:1)
自编码器
2)聚类学习3)生成对抗网络4)设计不需要标签的无监督学习任务,直接从无标签的数据中学习模型视觉表征:通过解决拼图问题来进行无监督学习确实是一个聪明的技巧
mmc2015
·
2020-07-07 17:18
深度学习
基于图嵌入的高斯混合变分
自编码器
的深度聚类(Deep Clustering by Gaussian Mixture Variational Autoencoders with Graph Embedding
基于图嵌入的高斯混合变分
自编码器
的深度聚类DeepClusteringbyGaussianMixtureVariationalAutoencoderswithGraphEmbedding,DGG作者:凯鲁嘎吉
凯鲁嘎吉
·
2020-07-07 16:00
深度学习图像压缩_1-概述:
自编码器
、量化、熵编码、率失真
1、
自编码器
Autoencoders目前端到端的图片压缩大多使用了
自编码器
结构。这里的
自编码器
可以理解为是一种神经网络,label与输入相同,目的是让输出接近于输入,可以用于提取特征。
heweiqiran
·
2020-07-07 09:59
图像压缩
视频编码
网易易盾实验室多模态视角信息融合技术达到国际领先水平 准确率等关键指标创新高
MULTI-VIEWAUTOENCODERFORIMAGEFEATURELEARNINGWITHSTRUCTUREDNONNEGATIVELOWRANK》提出了一种对多视角多模态特征信息进行有效融合的
自编码器
神经网络
网易云社区
·
2020-07-06 12:20
如何自制会跳舞的AI小姐姐?这有一份易上手的开源攻略
这几天,网友JaisonSaji开源了个叫DanceNet的神经网络,这是一个用变分
自编码器
、LSTM和混合密度网络构建的舞蹈生成器,合成不同姿态的逼真舞蹈动作不在话下。
量子位
·
2020-07-06 09:08
生成模型--
自编码器
(Autoencoder,AE)
自编码器
(Autoencoder,AE) 基本意思就是一个隐藏层的神经网络,输入输出都是x,并且输入维度一定要比输出维度大,属于无监督学习。
whitenightwu
·
2020-07-06 08:11
生成模型(VAE
GAN
GLOW)
TensorFlow 2.0深度学习算法实战教材---第12章
自编码器
假设机器学习是一个蛋糕,强化学习是蛋糕上的樱桃,监督学习是外面的糖衣,无监督学习则是蛋糕本体。—YannLeCun前面我们介绍了在给出样本及其的标签的情况下,神经网络如何学习的算法,这类算法需要学习的是在给定样本下的条件概率(|)。在社交网络蓬勃发展的今天,获取海量的样本数据,如照片、语音、文本等,是相对容易的,但困难的是获取这些数据所对应的标签信息,例如机器翻译,除了收集源语言的对话文本外,还需
安替-AnTi
·
2020-07-06 01:09
堆叠降噪
自编码器
SDAE
https://blog.csdn.net/satlihui/article/details/81006906https://blog.csdn.net/github_39611196/article/details/85246236https://blog.csdn.net/q1242027878/article/details/84679093https://blog.csdn.net/zbz
weixin_30511107
·
2020-07-05 21:06
tensorflow学习笔记——
自编码器
及多层感知器
1,
自编码器
简介传统机器学习任务很大程度上依赖于好的特征工程,比如对数值型,日期时间型,种类型等特征的提取。
weixin_30408739
·
2020-07-05 20:40
深度信念网络(DBN)和堆叠自编码(SAE)、深度
自编码器
(DAE)的区别
深度信念网络(DBN)和堆叠自编码(SAE)、深度
自编码器
(DAE)的区别深度信念网络(DBN)和堆叠自编码(SAE)、深度
自编码器
(DAE)具有类似的思想,因此很容易混淆。
weixin_30257433
·
2020-07-05 20:30
深度学习笔记:稀疏
自编码器
(4)——稀疏
自编码器
代码练习
本文是ufldl稀疏
自编码器
教程中的练习,详细的练习要求参见Exercise:SparseAutoencoder,笔者将练习中要求实现的三个文件代码记录在此,并作了详细的注释。
aaronwu2
·
2020-07-05 19:44
深度学习
白话Variational Autoencoder(变分
自编码器
)
本文将简单介绍一下VariationalAutoencoder。作者也在学习当中,如有不正确的地方,请大家指正,谢谢~原始的autoencoder一般分为两个部分encoderpart和decoderpart。encoder是将input转化为encodingvector,之后通过decodernetwork重新构造input。图1origanalautoencoder(fromwikipedia
一一爱吃大米
·
2020-07-05 13:04
DeepLearning
ufldl 深度学习入门 第三发: 自我学习与无监督特征学习
目的:使用稀疏
自编码器
提取特征,使用softmax做分类器,实现手写字符识别分类。好处:相比较前面直接使用原始像素的softmax分类器(92%识别率),能够提升分类器的识别率,达到98%以上。
sloanqin
·
2020-07-05 12:36
深度学习
关于稀疏
自编码器
的自己的理解
今天看了一天的稀疏
自编码器
,也跑了UFLDL教程http://ufldl.stanford.edu/wiki/index.php/Exercise:Sparse_Autoencoder上的exercise
zhaofenqiang
·
2020-07-05 11:44
深度学习
深度学习
自编码器
简介
一、工作原理
自编码器
一般包含编码器和解码器,编码阶段用于找到原始输入的高阶特征表示(更好的去分类),解码阶段用于产生和原始输入尺寸相同的原始数据表示,通过不断减小原始数据和解码后的原始数据表示来得到更好的编码后的高阶特征表示
man_world
·
2020-07-05 00:20
机器学习
GMVAE(GAUSSIAN MIXTURE VARIATIONAL AUTOENCODERS)高斯混合变分
自编码器
公式推导
GMM高斯混合模型:p(x)=∑zp(c)p(x∣c)=∑k=0K−1πkN(x∣μk,σk)\begin{aligned}p(x)=&\sum_{z}p(c)p(x|c)\\=&\sum_{k=0}^{K-1}\pi_{k}N(x|\mu_{k},\sigma_{k})\end{aligned}p(x)==z∑p(c)p(x∣c)k=0∑K−1πkN(x∣μk,σk)其中∑kπk=1,c是一个K
风吹草地现牛羊的马
·
2020-07-05 00:27
机器学习
NLP
变分贝叶斯系列
正则
自编码器
之收缩
自编码器
(Contractive Autoencoders)
衡量一个
自编码器
模型的效果可以从两个标准入手:1.模型是否可以很好的重建输入信号;2.模型对输入数据在一定程度下的扰动是否具有不变性。
罗辑罗辑
·
2020-07-04 19:13
深度学习与视频编解码算法一
通过
自编码器
把图像压缩成latentrepresentation(大小变为原始图像1/16*1/16)然后把latentrepresentation通过统计概率使用熵编码进行编码。
风口上的传奇
·
2020-07-04 12:06
图像视频深度学习
自编码器
python实现
自编码器
自编码器
是一种非常通用的神经网络工具。主要思想是通过一个编码器,将原始信息编码为一组向量,然后通过一个解码器,将向量解码为原始数据。通过衡量输入与输出的差别,来对网络参数进行训练。
lookjie
·
2020-07-04 10:14
机器学习
神经网络
深度学习
自编码器
python
GMIS 2017大会邓力演讲:无监督学习的前沿与SPDG方法的优良性
他认为,聚类方法、GAN和变分
自编码器
(VAE)等传统无
hzyido
·
2020-07-04 06:04
深度学习:AE
自编码器
详细解读(图文并茂,值得一看)
深度学习:AE
自编码器
详细解读(图文并茂,值得一看)本文参照了大量的网上文献,提取出了关于AE
自编码器
最重要的概念部分整理而成,为了增加文章的可读性,文章搭配了大量的插图。
三景页三景页
·
2020-07-04 06:30
深度学习算法及原理
自编码器
与堆叠
自编码器
简述
自编码器
自从Hinton2006年的工作之后,越来越多的研究者开始关注各种
自编码器
模型相应的堆叠模型。
zzzkk2009
·
2020-07-04 04:41
数据挖掘&机器学习&人工智能
自编码器
(AE)原理解析
机器学习基本分为监督学习、无监督学习、强化学习,而
自编码器
则是无监督学习的一种,不过它比较自觉,别人不监督它但它自己监督自己,对输入样本xxx进行训练,得出结果后再与xxx进行对比。
Steven·简谈
·
2020-07-04 03:51
机器学习
#
深度学习
pytorch 搭建的基于LSTM
自编码器
对数据降维并采用KNN算法对鸢尾花分类
LSTM搭建
自编码器
提取特征,KNN分类importtorchimporttorch.nnasnnfromsklearn.datasetsimportload_irisfromsklearn.model_selectionimporttrain_test_split
小然_ran
·
2020-07-02 16:35
机器学
人工智能
pytorch
[深度学习从入门到女装]变分
自编码器
(Auto-Encoding Variational Bayes)
Auto-EncodingVariationalBayesTutorialonVariationalAutoencoders强烈建议看上方链接的第二篇,是一篇通俗易懂的变分自编码的教程,本文也是基于这篇教程VariationalAutoencoders变分
自编码器
作为一种生成模型
炼丹师
·
2020-07-02 14:18
深度学习
从零上手变分
自编码器
(VAE)
阅读更多,欢迎关注公众号:论文收割机(paper_reader)原文链接:从零上手变分
自编码器
(VAE)KingmaDP,WellingM.Auto-encodingvariationalbayes[J
paper_reader
·
2020-07-02 14:09
deep
learning
条件变分
自编码器
(CVAE)及相关论文ELBO推导
推导用到的概率公式:P(A,B∣C)=P(A∣B,C)P(B∣C)P(A,B|C)=P(A|B,C)P(B|C)P(A,B∣C)=P(A∣B,C)P(B∣C)证明:由于P(A∣B)=P(A,B)P(B)P(A|B)={P(A,B)\overP(B)}P(A∣B)=P(B)P(A,B),所以P(A,B∣C)=P(A,B,C)P(C)P(A,B|C)={P(A,B,C)\overP(C)}P(A,B∣
风吹草地现牛羊的马
·
2020-07-02 11:33
机器学习
NLP
变分贝叶斯系列
深度生成模型——自省变分
自编码器
IntroVAE
近日,中国科学院自动化研究所智能感知与计算研究中心提出一种新的深度生成模型——自省变分
自编码器
(IntrospectiveVariationalAutoencoder,IntroVAE),用来实现高清图像等高维数据的无条件生成
经年不往
·
2020-07-02 11:57
科研文章解读相关
变分
自编码器
VAE代码篇
VAE非常适合用于学习具有良好结构的潜在空间,其中特定方向表示数据中有意义的变化轴;VAE的工作原理:(1)一个编码器模块将输入样本input_img转换为表示潜在空间中的两个参数z_mean和z_log_variance;(2)我们假定潜在正态分布能够生成输入图像,并从这个分布中随机采样一个点:z=z_mean+exp(z_log_variance)*epsilon,其中epsilon是取值很小
经年不往
·
2020-07-02 11:57
机器学习实战系列
数据降维之主成分分析、多维缩放、t分布随机近邻嵌入、自编码神经网络
自编码器
内部有一个隐含层h,产生编码来表示输入,一个编码器·函数h=f(x)和一个生成重构解码器r=g(h)。结构如下:如果一个自动编码器学会简单的设置
Mr.Gavin
·
2020-07-02 10:00
数据挖掘
NLP
VAE--变分
自编码器
的通俗易懂的解释
转自:https://spaces.ac.cn/archives/5253过去虽然没有细看,但印象里一直觉得变分
自编码器
(VariationalAuto-Encoder,VAE)是个好东西。
芮芮杰
·
2020-07-02 10:04
深度生成模型笔记
VAE的处理trick
深度学习花书学习笔记 第十四章
自编码器
欠完备
自编码器
编码输出维度小于输入的编码器称为欠完备
自编码器
,可以得到有效特征。正则
自编码器
编码输出维度大于等于输入的编码器称为过完备
自编码器
。
liutianheng654
·
2020-07-02 09:45
机器学习
深度学习花书
读书笔记
对抗
自编码器
:Adversarial Autoencoders
前一篇文章介绍了原始的GAN理论,包括后续提出的能够适用于更高分辨率的DCGAN在内,其模型本质都是训练一个生成器G,然后去不断欺骗一个也在实时更新的判别器D,虽然这个模型框架一定程度上非常好的解决了以往GenerativeModel需要非常多监督信息的弊端(例如LearningtoGenerateChairs,TablesandCarswithConvolutionalNetworks),但是也
Kumuda
·
2020-07-02 06:02
深度学习-论文阅读
学习笔记
深度学习入门 ---稀疏
自编码器
在学习稀疏
自编码器
之前,需要读者有BP神经网络的基础1.为什么要用稀疏
自编码器
对于没有带类别标签的数据,由于为其增加类别标记是一个非常麻烦的过程,因此我们希望机器能够自己学习到样本中的一些重要特征。
Jiede1
·
2020-07-02 05:10
机器学习
深度学习
深度
自编码器
python实现
深度
自编码器
的原理上一节已经讲过,这次我们来看一下它的python代码实现,这是基于mnist的自编码实现。
gentelyang
·
2020-07-02 00:22
tensorflow
深度学习(3)-变分
自编码器
2.关于loss的考虑:3.有一个疑问:变分
自编码器
https://zhuanlan.z
看不见我呀
·
2020-07-02 00:41
机器学习实战
基于
自编码器
的生成对抗网络AEGAN
基于
自编码器
的生成对抗网络AEGAN1introductionautoencoder是一个很好的特诊提取模型,然而,如果我们使用autoencoder的decoder部分来当做一个generator,效果并不好
g8015108
·
2020-07-02 00:43
深度学习
autoencoder
变分
自编码器
VAE
基于变分的
自编码器
(variationalAutoencoder)是2014由Kingma等人提出的一种基于变分贝叶斯推断的生成网络。与传统的生成网络相比它具有两点优势:1。
g8015108
·
2020-07-02 00:11
autoencoder
Python
4.keras实现-->生成式深度学习之用变分
自编码器
VAE生成图像(mnist数据集和名人头像数据集)...
1.VAE和GAN变分
自编码器
(VAE,variatinalautoencoder)VS生成式对抗网络(GAN,generativeadversarialnetwork)两者不仅适用于图像,还可以探索声音
dili8870
·
2020-07-01 22:24
变分
自编码器
VAE:原来是这么一回事 | 附开源代码
作者丨苏剑林单位丨广州火焰信息科技有限公司研究方向丨NLP,神经网络个人主页丨kexue.fm过去虽然没有细看,但印象里一直觉得变分
自编码器
(VariationalAuto-Encoder,VAE)是个好东西
PaperWeekly
·
2020-07-01 19:31
漫谈概率 PCA 和变分
自编码器
作者丨知乎DeAlVe学校丨某211硕士生研究方向丨模式识别与机器学习介绍主成分分析(PCA)和
自编码器
(AutoEncoders,AE)是无监督学习中的两种代表性方法。
PaperWeekly
·
2020-07-01 19:31
基于TensorFlow理解三大降维技术:PCA、t-SNE 和
自编码器
ythonista数据科学家EliorCohen近日在Medium上发文解读了最常见的三大降维技术:PCA、t-SNE和
自编码器
。
c2a2o2
·
2020-07-01 19:48
TensorFlow
深度学习(二十六)——VAE
https://antkillerfarm.github.io/VAE变分
自编码器
(VariationalAuto-Encoder,VAE)是Autoencoder的一种扩展。
antkillerfarm
·
2020-07-01 17:00
深度学习
(转) 变分
自编码器
(Variational Autoencoder, VAE)通俗教程
变分
自编码器
(VariationalAutoencoder,VAE)通俗教程转载自:http://www.dengfanxin.cn/?
a1424262219
·
2020-07-01 15:29
自编码器
图像去噪-pytorch实现
概念
自编码器
的两个核心部分是编码器和解码器,它将输入数据压缩到一个潜在的空间中,然后再根据这个空间将数据进行重构得到最后的输出数据。整个架构都是采用神经网络构建,与普通的神经网络架构相似。
Deep In
·
2020-07-01 14:52
深度学习
如何使用TensorFlow和VAE模型生成手写数字
本文详细介绍了如何使用TensorFlow实现变分
自编码器
(VAE)模型,并通过简单的手写数字生成案例一步步引导读者实现这一强大的生成模型。
机器之心V
·
2020-07-01 14:18
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他