E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
自编码器
基于tensorflow的栈式
自编码器
实现
这周完全没有想法要看栈式编码器的,谁知误入桃花源,就暂且把栈式
自编码器
看了吧。由于手上有很多数值型的数据,仅仅是数据,没有标签,所以,迫切需要通过聚类抽出特征。
老笨妞
·
2017-03-30 11:36
tensorflow
Tensorflow实战3:实现去噪
自编码器
1.
自编码器
的简介
自编码器
(AutoEncoder)是一种典型的无监督学习,即不需要对样本进行手工标注,就可对数据进行一定程度的学习。
Felaim
·
2017-03-28 14:42
编码
深度学习
无监督学习
Tensorflow实战系列
TensorFlow 实现深度神经网络 —— Denoising Autoencoder
DenoisingAutoencoder.pyatmaster·tensorflow/models·GitHub;1.DenoisingAutoencoder类设计与构造函数简单起见,这里仅考虑一种单隐层的去噪
自编码器
结构
Inside_Zhang
·
2017-03-26 19:50
tensorflow 实现基本AutoEncoder,降噪
自编码器
Auto-Encoder(AE)是20世纪80年代晚期提出的,它是一种无监督学习算法,使用了反向传播算法,让目标值等于输入值。基本的AE可视为一个三层神经网络结构:一个输入层、一个隐藏层和一个输出层,其中输出层与输入层具有相同的规模。AE最初是作为一个降维手段来进行的,要是编码器那里没有使用非线性部分,那么就可以等价为PCA算法来使用。(初始的维数大于编码器输出的维数的时候)而现在编码器的输出维数
hwang4_12
·
2017-03-17 16:59
人工智能和深度学习
tensorflow实现
自编码器
简介
自编码器
是利用神经网络提取出图像中的高阶特征,同时可以利用高阶特征重构自己如果向原图中添加噪声,则可以通过高阶特征的提取,对原始图像进行去噪tensorflow实战第四章内容代码importnumpyasnpimportsklearn.preprocessingasprepimporttensorflowastffromtensorflow.examples.tutorials.mnistim
Strangers_bye
·
2017-03-08 22:48
深度学习
tensorflow
自编码器
用TensorFlow实现
自编码器
#初学者的笔记,不对的地方大家多多指教#-*-coding:utf-8-*-#导入对应的安装包和读入数据importnumpyasnpimportsklearn.preprocessingasprepimporttensorflowastffromtensorflow.examples.tutorials.mnistimportinput_data#参数的初始化defxavier_init(fan
IT-行者
·
2017-03-06 17:36
TensorFlow
特征学习
关键词2为什么需要进行特征学习3无监督学习解决的问题4功能强大的特征学习1.关键词自我学习/自学习self-taughtlearning无监督特征学习unsupervisedfeaturelearning
自编码器
机器学习算法与Python学习-公众号
·
2017-02-21 14:12
机器学习
系统学习深度学习(二) --
自编码器
,DA算法,SDA,稀疏
自编码器
转自:http://www.cnblogs.com/neopenx/p/4370350.html,作者写的很好,轻松易懂。起源:PCA、特征提取....随着一些奇怪的高维数据出现,比如图像、语音,传统的统计学-机器学习方法遇到了前所未有的挑战。数据维度过高,数据单调,噪声分布广,传统方法的“数值游戏”很难奏效。数据挖掘?已然挖不出有用的东西。为了解决高维度的问题,出现的线性学习的PCA降维方法,P
Eason.wxd
·
2017-01-10 13:56
深度学习
【Learning Notes】变分
自编码器
(Variational Auto-Encoder,VAE)
VAE(VariationalAuto-Encoder,变分
自编码器
)[1,2]和GAN(GenerativeAdversarialNetworks)等模型,受到越来越多的关注。
MoussaTintin
·
2016-12-14 17:49
变分自编码器
variation
自编码器
生成模型
原创
人工智能
机器学习
深度学习
基于无监督学习的
自编码器
实现
无监督学习介绍及部分函数实现内容简介目前许多有监督学习算法,如SVM,DNN或是boosting,决策树等,都在工业界分类或决策任务上取得了不错的成果。但是这些有监督学习需要大量带标签的数据,对数据进行上标签又是一个需耗费人力与时间的任务。有许多数据都是不带标签的,因此我们可利用无监督学习对其进行聚类或特征提取。利用无监督学习得到的特征结果也可应用到带标记数据较少的有监督学习任务中,提高其分类性能
Jiede1
·
2016-12-11 23:25
机器学习
为什么稀疏
自编码器
很少见到多层的?
AndrewNg的视频和资料也好,还是网上的资料和代码,以及书上的内容,我很少见到稀疏
自编码器
是多层的结构一般都是{N,m,N}的三层结构(一层是隐层,输入输出各一层)为什么很少见到例如{N,m,k,m
garfielder007
·
2016-07-10 00:16
Deep
Learning
自编码器
与堆叠
自编码器
简述
本文是对知乎问题为什么稀疏
自编码器
很少见到多层的?的回答,同时借此介绍下
自编码器
及其相关的一些知识。目录
自编码器
自编码器
简介
自编码器
与神经网络堆叠
自编码器
自编码器
的变种形式稀疏
自编码器
降噪自编
MemRay
·
2016-05-30 04:57
机器学习
Deep
Learning
UFLDL 10 建立分类用深度学习网络
1微调Fine-tune上节中,介绍了利用
自编码器
和未标注样本,通过自学习或者样本更加本质的特征,这一节将会使用已标注样本对其进行微调,提高分类精度。
bea_tree
·
2016-05-11 15:00
深度学习
UFLDL
深度学习基础(十一)—— 稀疏
自编码器
(二)
损失函数无约束时网络的损失函数表达式如下:J(W,b)==1m[∑i=1mJ(W,b;x(i),y(i))]+λ2∑ℓ∑i=1s1∑j=1s2(W(ℓ)ji)21m[∑i=1m∥∥hW,b(x(i))−y(i)∥∥2]+λ2∑ℓ∑i=1s1∑j=1s2(W(ℓ)ji)2稀疏编码是对网络的隐含层的输出有了约束,即隐含层节点输出的平均值应尽量为0,这样的话,大部分的隐含层节点都处于非activite状
lanchunhui
·
2016-05-10 09:00
关于深度学习
自编码器
理解
目前的深度学习有三种架构:SDA,RBM,CNN.其中我们学习的是
自编码器
。自编码训练遵循的是BP算法,但
zhcheng26
·
2016-05-05 11:00
优化
编码
迭代
深度学习
UFLDL 09 自我学习 Self-Taught Learning Unsupervised Feature Learning
基本思路如下:1.大量的无标签数据导入
自编码器
(autoencoder),得到其更加本质的特征;2.有标签数据导入同一个编码器,用得到的特征和标签进行训练,(使用普通的训练方法比如svm等)得到模型;3
bea_tree
·
2016-05-05 09:00
UFLDL
深度学习基础(八)—— 稀疏
自编码器
自编码器
神经网络尝试学习一个:hW,b(x)≈x的函数,换句话说,它尝试逼近一个恒等函数(identityfunction,或叫证同函数),使得输出x^接近于输入x。
lanchunhui
·
2016-04-29 11:00
UFLDL 笔记 05 自编码训练结果展示 Visualizing a Trained Autoencoder
上一节中已经学会训练稀疏的
自编码器
,这一节将展示它神秘的隐藏单元。还要再借上一节的图用下:这里我们假设输入是一个10*10的图片,也就是有100个输入单元。
bea_tree
·
2016-04-23 09:00
UFLDL
稀疏
自编码器
一览表
下面是我们在推导sparseautoencoder时使用的符号一览表:符号含义训练样本的输入特征,.输出值/目标值.这里 可以是向量.在autoencoder中,.第 个训练样本输入为 时的假设输出,其中包含参数 .该输出应当与目标值 具有相同的维数.连接第 层 单元和第 层 单元的参数.第 层 单元的偏置项.也可以看作是连接第 层偏置单元和第 层 单元的参数.参数向量.
qq_25491201
·
2016-04-22 20:00
机器学习
稀疏自编码器一览表
可视化
自编码器
训练结果
训练完(稀疏)
自编码器
,我们还想把这
自编码器
学到的函数可视化出来,好弄明白它到底学到了什么。我们以在10×10图像(即n=100)上训练
自编码器
为例。
qq_25491201
·
2016-04-22 20:00
机器学习
可视化自编码器输出结果
CAE(Convolutional Auto-Encode) 卷积自编码
下面谈一下自己的认识,算是总结吧CAE(ConvolutionalAuto-Encode)卷积自编码:一种卷积
自编码器
,其实现的过程与Auto-Encode的思想是一致
Losteng
·
2016-04-05 19:00
多层
自编码器
的微调
多层
自编码器
由多个稀疏
自编码器
和一个Softmax分类器构成;(其中,每个稀疏
自编码器
的权值可以利用无标签训练样本得到,Softmax分类器参数可由有标签训练样本得到)多层
自编码器
微调是指将多层
自编码器
看做是一个多层的神经网络
tina_ttl
·
2016-04-01 10:00
UFLDL教程(六)之栈式
自编码器
第0步:初始化一些参数和常数 第1步:利用训练样本集训练第一个稀疏编码器 第2步:利用训练样本集训练第二个稀疏编码器 第3步:利用第二个稀疏编码器提取到的特征训练softmax回归模型 第4步:利用误差反向传播进行微调 第5步:利用测试样本集对得到的分类器进行精度测试 下面将程序实现过程中的关键代码post出,欢迎各位网友指点!stackedAEExercise.mclc clear clos
tina_ttl
·
2016-04-01 10:00
UFLDL教程(五)之self-taught learning
这里所谓的自学习,其实就是利用稀疏
自编码器
对无标签样本学习其特征 该自学习程序包括两部分:稀疏
自编码器
学习图像特征(实现自学习)---用到无标签的样本集softmax回归对样本分类---用到有标签的训练样本集
tina_ttl
·
2016-04-01 10:00
UFLDL教程练习之二:稀疏
自编码器
和矢量化编程
可视化
自编码器
,可视化的是要学习的参数W1。1:稀疏
自编码器
Step1:在sampleIMAGES.m文件中获取生成训练集的代码,其中tic和toc是用来记时用的。
baobei0112
·
2016-02-19 15:00
基于深度学习的图像去噪(论文总结)
2015深度学习、
自编码器
、低照度图像增强Lore,KinGwn,AdedotunAkintayo,andSoumikSarkar."
zhihua_bupt
·
2016-01-24 00:47
Machine
Learning
机器学习实战笔记
基于深度学习的图像去噪(论文总结)
2015深度学习、
自编码器
、低照度图像增强Lore,KinGwn,AdedotunAkintayo,andSoumikSarkar."
geekmanong
·
2016-01-24 00:00
深度学习系列(十):从卷积计算到卷积神经网络CNN
前面已经介绍了深度学习的一个模型框架:
自编码器
,那么从本节后来再来简单介绍一下深度学习的另一个模型框架:卷积神经网络CNN,关于CNN可能大家听说过的不能在多了,网上资源众多,各路大神总结的也是无比完美
on2way
·
2016-01-16 15:54
模式识别&机器学习
深度学习
深度学习系列(十):从卷积计算到卷积神经网络CNN
前面已经介绍了深度学习的一个模型框架:
自编码器
,那么从本节后来再来简单介绍一下深度学习的另一个模型框架:卷积神经网络CNN,关于CNN可能大家听说过的不能在多了,网上资源众多,各路大神总结的也是无比完美
on2way
·
2016-01-16 15:00
网络
神经网络
深度学习
Theano-Deep Learning Tutorials 笔记:Denoising Autoencoders (dA)
教程地址:http://www.deeplearning.net/tutorial/dA.html#autoencoders降噪的
自编码器
由[Vincent08]提出,首先先介绍
自编码器
。
u012816943
·
2016-01-12 14:00
deep
learning
theano
深度网络初探
基本概念如果已经学过了之前的课程,深度网络的概念很好理解:在输入层如输出层之间加入若干由稀疏
自编码器
(Sparseautoencoder)构成的隐藏层(Hiddenlayer,通常多于2层),形成一个多层人工神经网络
Lee的白板报
·
2015-12-21 14:00
SoftMax
稀疏自编码器
深度网络
深层特征可视化
UFLDL教程答案(5):Exercise:Self-Taught Learning
http://deeplearning.stanford.edu/wiki/index.php/Exercise:Self-Taught_Learning 1.习惯性废话几句1.这个练习要把之前的稀疏
自编码器
与
u012816943
·
2015-12-19 12:00
NG
learning
Andrew
深度学习
Self-Taught
UFLDL教程答案
Stanford UFLDL教程 线性解码器
线性解码器Contents[hide]1稀疏自编码重述2线性解码器3中英文对照4中文译者稀疏自编码重述稀疏
自编码器
包含3层神经元,分别是输入层,隐含层以及输出层。
garfielder007
·
2015-12-07 09:03
斯坦福UFLDL教程
Stanford UFLDL教程 栈式自编码算法
在本节中,我们将会学习如何将
自编码器
“栈化”到逐层贪婪训练法中,从而预训练(或者说初始化)深度神经网络的权重。
GarfieldEr007
·
2015-12-06 11:00
stanford
栈式自编码算法
UFLDL教程
SAE模型
StackedAutoencoder(SAE)模型是一个由多层稀疏
自编码器
组成的深度神经网络模型,其前一层
自编码器
的输出作为其后一层
自编码器
的输入,最后一层是个分类器(logistic分类器或者softmax
我花开后百花残
·
2015-11-26 10:00
SAE模型
StackedAutoencoder(SAE)模型是一个由多层稀疏
自编码器
组成的深度神经网络模型,其前一层
自编码器
的输出作为其后一层
自编码器
的输入,最后一层是个分类器(logistic分类器或者softmax
我花开后百花残
·
2015-11-26 10:00
自编码器
及相关变种算法简介
本文对
自编码器
(Auto-Encoder)算法及其相关变种算法进行简要介绍,其中包括 Regularized Auto-Encoder、Sparse Auto-Encoder
·
2015-11-12 17:03
算法
Deep Learning 学习随记(六)Linear Decoder 线性解码
线性解码器(Linear Decoder) 前面第一章提到稀疏
自编码器
(http://www.cnblogs.com/bzjia-blog/p/SparseAutoencoder.html)的三层网络结构
·
2015-11-12 11:39
decode
Deep Learning 学习随记(五)深度网络--续
不过最终还是调试成功了,sigh~ 前一篇博文讲了深度网络的一些基本知识,这次讲义中的练习还是针对MNIST手写库,主要步骤是训练两个
自编码器
,然后进行softmax回归,最后再整体进行一次微调。
·
2015-11-12 11:38
学习
UFLDL实验报告3:Self-taught
在本实验中,我们将按照自我学习的步骤,使用稀疏
自编码器
和softmax分类器去构造一个手写数字分类器。 实现流程 Step 1 :
·
2015-11-11 10:29
EL
UFLDL实验报告2:Sparse Autoencoder
Sparse Autoencoder稀疏
自编码器
实验报告 1.Sparse Autoencoder稀疏
自编码器
实验描述 自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值
·
2015-11-11 10:28
encode
UFLDL笔记——稀疏
自编码器
注:最近打算将UFLDL教程重新看一遍,其实里面有很多关于神经网络以及深度学习的知识点很有用,但是只是学习深度学习的话有一些内容就有点多余,所以想整理一个笔记,记录下神经网络到深度学习的一些知识点。整个教材已经非常好,网上有原版的英文版,也有翻译的中文版,这个只是自己的学习笔记,对原来教程中的内容进行了梳理,有些图也是引用的原来的教程,若内容上有任何错误,希望与我联系,若内容有侵权,同样也希望告知
google19890102
·
2015-11-09 14:00
深度学习
稀疏自编码器
深度学习入门教程UFLDL学习实验笔记一:稀疏
自编码器
UFLDL即(unsupervised feature learning & deep learning)。这是斯坦福网站上的一篇经典教程。顾名思义,你将在这篇这篇文章中学习到无监督特征学习和深度学习的主要观点。 UFLDL全文出处在这:http://ufldl.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B,本文为本人原创,参考了
·
2015-11-05 08:48
编码
UFLDL教程练习(exercise)答案(1)
下面是《稀疏
自编码器
》和《矢量化编程实现》这两节我自己实现的练习答案,不保证完全正确,不过结果和网站上面给出的基本一致。
·
2015-11-01 12:07
exe
ufldl 深度学习入门 第三发: 自我学习与无监督特征学习
目的:使用稀疏
自编码器
提取特征,使用softmax做分类器,实现手写字符识别分类。好处:相比较前面直接使用原始像素的softmax分类器(92%识别率),能够提升分类器的识别率,达到98%以上。
sloanqin
·
2015-09-28 22:00
风机桨叶故障诊断(六) 利用
自编码器
进行特征学习
风机桨叶故障诊断(六)利用
自编码器
进行特征学习 在之前的工作中,我已经初步构建了三层的BP神经网络,并已经从样本集的选取,模型的选择(隐含层神经元个数),和输出层神经元阈值选择这几个方面对桨叶的识别问题进行了优化
u011583927
·
2015-09-15 17:00
自编码神经网络
自学习特征
UFLDL教程
稀疏
自编码器
神经网络反向传导算法梯度检验与高级
u014433370
·
2015-09-09 17:00
ufldl 深度学习入门 第一发:基于BP网络实现稀疏
自编码器
ufldl上的第一章是基于BP网络实现稀疏
自编码器
,在matlab上实现。稀疏
自编码器
的实现:ufldl上已经给出了整体的框架,
sloanqin
·
2015-09-07 13:00
UFLDL教程(一)---稀疏
自编码器
神经网络模型简单的神经网络前向传播代价函数对于单个样例,其代价函数为:给定一个包含m个样例的数据集,我们可以定义整体代价函数为:以上公式中的第一项 是一个均方差项。第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟合。反向传播算法反向传播算法,它是计算偏导数的一种有效方法。批量梯度下降法梯度检验给定一个被认为能计算的函数,我们可以用下面的数值检验公式计算两端是否一样来检验函
lwnylslwnyls
·
2015-08-21 14:00
UFLDL练习一(稀疏
自编码器
)
====================================================================开始的第一个练习是:稀疏
自编码器
第一部分就是神经网络的简单概述输入的
langb2014
·
2015-06-28 13:00
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他