E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Autoencoder自编码器
[置顶] FFmpeg总结(六)AV系列结构体之AVPacket
AVPacket位置:libavcodec/avcodec.h下:AVPacket:通常通过demuxer导出的datapacket作为解码器的inputdata或是收到来
自编码器
的datapacket
hejjunlin
·
2017-04-13 10:00
编码
avpacket
ffmpeg结构体
tensorflow31《TensorFlow实战》笔记-04 TensorFlow实现
自编码器
及多层感知机 code
01
自编码器
#《TensorFlow实战》04TensorFlow实现
自编码器
及多层感知机#win10Tensorflow1.0.1python3.5.3#CUDAv8.0cudnn-8.0-windows10
longji
·
2017-04-11 18:45
tensorflow
CDL(协同深度学习)——一种基于深度学习的推荐系统
主要是栈式
自编码器
sdae和CTR通过贝叶斯图方式结合。1.概述当前推荐算法主要是基于内容(CB)、协同过滤(CF)、混合算法。基于内容的推荐依靠用户profile和item的描述做推荐。
老笨妞
·
2017-04-11 11:34
Deep
Learning
Study
推荐系统
TensorFlow学习02-
AutoEncoder
和MLP
自编码器
和多层感知机整个神经网络的流程:定义算法公式,也就是神经网络的forward时的计算定义loss,选定优化器,并指定优化器优化loss迭代地对数据进行训练在测试集或验证集上对准确率进行评测1.1
阿面a
·
2017-04-09 11:02
深度学习笔记(2)——卷积神经网络(Convolutional Neural Network)
卷积神经网络(ConvolutionalNeuralNetwork,CNN)是深度学习转折的标志性成果,在深度学习的早期,以Hinton等为代表的学者们研究主要集中在RBM(限制波尔兹曼机),AE(
自编码器
qq_21190081
·
2017-04-05 14:00
深度学习
TensorFlow上实现
AutoEncoder
自编码器
一、概述
AutoEncoder
大致是一个将数据的高维特征进行压缩降维编码,再经过相反的解码过程的一种学习方法。
marsjhao
·
2017-04-02 09:41
TensorFlow
AutoEncoder
数据压缩
编码
TensorFlow
Keras上实现
AutoEncoder
自编码器
一、
自编码器
简介无监督特征学习(UnsupervisedFeatureLearning)是一种仿人脑的对特征逐层抽象提取的过程,学习过程中有两点:一是无监督学习,即对训练数据不需要进行标签化标注,这种学习是对数据内容的组织形式的学习
marsjhao
·
2017-03-31 19:59
Keras
深度学习
自编码器
AutoEncoder
Keras
基于tensorflow的栈式
自编码器
实现
这周完全没有想法要看栈式编码器的,谁知误入桃花源,就暂且把栈式
自编码器
看了吧。由于手上有很多数值型的数据,仅仅是数据,没有标签,所以,迫切需要通过聚类抽出特征。
老笨妞
·
2017-03-30 11:36
tensorflow
Tensorflow实战3:实现去噪
自编码器
1.
自编码器
的简介
自编码器
(
AutoEncoder
)是一种典型的无监督学习,即不需要对样本进行手工标注,就可对数据进行一定程度的学习。
Felaim
·
2017-03-28 14:42
编码
深度学习
无监督学习
Tensorflow实战系列
TensorFlow 实现深度神经网络 —— Denoising
Autoencoder
DenoisingAutoencoder.pyatmaster·tensorflow/models·GitHub;1.DenoisingAutoencoder类设计与构造函数简单起见,这里仅考虑一种单隐层的去噪
自编码器
结构
Inside_Zhang
·
2017-03-26 19:50
tensorflow 实现基本
AutoEncoder
,降噪
自编码器
Auto-Encoder(AE)是20世纪80年代晚期提出的,它是一种无监督学习算法,使用了反向传播算法,让目标值等于输入值。基本的AE可视为一个三层神经网络结构:一个输入层、一个隐藏层和一个输出层,其中输出层与输入层具有相同的规模。AE最初是作为一个降维手段来进行的,要是编码器那里没有使用非线性部分,那么就可以等价为PCA算法来使用。(初始的维数大于编码器输出的维数的时候)而现在编码器的输出维数
hwang4_12
·
2017-03-17 16:59
人工智能和深度学习
tensorflow实现
自编码器
简介
自编码器
是利用神经网络提取出图像中的高阶特征,同时可以利用高阶特征重构自己如果向原图中添加噪声,则可以通过高阶特征的提取,对原始图像进行去噪tensorflow实战第四章内容代码importnumpyasnpimportsklearn.preprocessingasprepimporttensorflowastffromtensorflow.examples.tutorials.mnistim
Strangers_bye
·
2017-03-08 22:48
深度学习
tensorflow
自编码器
用TensorFlow实现
自编码器
#初学者的笔记,不对的地方大家多多指教#-*-coding:utf-8-*-#导入对应的安装包和读入数据importnumpyasnpimportsklearn.preprocessingasprepimporttensorflowastffromtensorflow.examples.tutorials.mnistimportinput_data#参数的初始化defxavier_init(fan
IT-行者
·
2017-03-06 17:36
TensorFlow
特征学习
关键词2为什么需要进行特征学习3无监督学习解决的问题4功能强大的特征学习1.关键词自我学习/自学习self-taughtlearning无监督特征学习unsupervisedfeaturelearning
自编码器
机器学习算法与Python学习-公众号
·
2017-02-21 14:12
机器学习
系统学习深度学习(二) --
自编码器
,DA算法,SDA,稀疏
自编码器
转自:http://www.cnblogs.com/neopenx/p/4370350.html,作者写的很好,轻松易懂。起源:PCA、特征提取....随着一些奇怪的高维数据出现,比如图像、语音,传统的统计学-机器学习方法遇到了前所未有的挑战。数据维度过高,数据单调,噪声分布广,传统方法的“数值游戏”很难奏效。数据挖掘?已然挖不出有用的东西。为了解决高维度的问题,出现的线性学习的PCA降维方法,P
Eason.wxd
·
2017-01-10 13:56
深度学习
【Learning Notes】变分
自编码器
(Variational Auto-Encoder,VAE)
VAE(VariationalAuto-Encoder,变分
自编码器
)[1,2]和GAN(GenerativeAdversarialNetworks)等模型,受到越来越多的关注。
MoussaTintin
·
2016-12-14 17:49
变分自编码器
variation
自编码器
生成模型
原创
人工智能
机器学习
深度学习
基于无监督学习的
自编码器
实现
无监督学习介绍及部分函数实现内容简介目前许多有监督学习算法,如SVM,DNN或是boosting,决策树等,都在工业界分类或决策任务上取得了不错的成果。但是这些有监督学习需要大量带标签的数据,对数据进行上标签又是一个需耗费人力与时间的任务。有许多数据都是不带标签的,因此我们可利用无监督学习对其进行聚类或特征提取。利用无监督学习得到的特征结果也可应用到带标记数据较少的有监督学习任务中,提高其分类性能
Jiede1
·
2016-12-11 23:25
机器学习
自动编码器(Auto Encoder)
1.初识
AutoEncoder
1986年Rumelhart提出自动编码器的概念,并将其用于高维复杂数据处理,促进了神经网络的发展。
雪伦_
·
2016-12-08 14:32
深度学习
降噪自动编码机(Denoising
Autoencoder
)
摘要dA的Theano实现
Autoencoder
原理dA原理自动编码机自动编码机首先将输入映射到隐层:其中s是非线性函数,例如sigmoid和tanh函数。这个过程可以被称为编码过程。
yybbxx
·
2016-10-15 17:36
深度学习
Theano
python
自动编码器(
Autoencoder
)
Autoencoderautoencoder是一种无监督的学习算法,主要用于数据的降维或者特征的抽取,在深度学习中,
autoencoder
可用于在训练阶段开始前,确定权重矩阵W的初始值。
Joe-Han
·
2016-09-20 22:52
深度学习
稀疏自动编码器 (Sparse
Autoencoder
)
摘要一个新的系列,来自于斯坦福德深度学习在线课程:http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial。本文梳理了该教程第一部分的内容,主要包括人工神经网络入门、反向传递算法、梯度检验与高级优化和自编码算法与稀疏性等要点。最后以课程作业作为总结和练习。前言斯坦福深度学习在线课程是AndrewNg编制的,该教程以深度学习中的重要
JY_0812
·
2016-09-16 16:40
算法
深度学习算法实践13---去噪自动编码机(Denosing
Autoencoder
)
在这一篇博文,我们将介绍稍微不同的神经网络架构,即被称为自动编码机(
Autoencoder
)。与前述我们所讨论的神经网络不同,自动编码器(
Autoencoder
)属于非监督学习,不需要对训练样本
最老程序员闫涛
·
2016-08-31 17:29
深度学习
人工智能
深度学习实践
深度学习算法实践13---去噪自动编码机(Denosing
Autoencoder
)
在这一篇博文,我们将介绍稍微不同的神经网络架构,即被称为自动编码机(
Autoencoder
)。与前述我们所讨论的神经网络不同,自动编码器(
Autoencoder
)属于非监督学习,不需要对训练样本
Yt7589
·
2016-08-31 17:00
DA
深度学习
AutoEncoder
自动编码机
深度学习算法实践10---卷积神经网络(CNN)原理
与此相对应的,在深度学习研究领域,最热门的是
AutoEncoder
、RBM、DBN等产生式网络架构,但是这些研究领域,虽然论文比较多,但是重量级应用还没有出现
最老程序员闫涛
·
2016-08-26 14:53
深度学习
人工智能
Theano
深度学习实践
深度学习算法实践10---卷积神经网络(CNN)原理
与此相对应的,在深度学习研究领域,最热门的是
AutoEncoder
、RBM、DBN等产生式网络架构,但是这些研究领域,虽然论文比较多,但是重量级应用还没有出现
Yt7589
·
2016-08-26 14:00
图像识别
cnn
深度学习
卷积神经网络
Hidden layer--
autoencoder
#隐藏层节点的特征提前能力##考虑一个三层全连接神经网络模型,(l_input,l_hidden,l_output)各层的节点数分别为n_input,n_hidden,n_output每一个隐藏层节点h_i的特征提取能力是与该节点h_i和上一层所有节点input_k(k=1,2,...,n)所对应的权重向量w_j相关的,往往是与w_j线性相关的输入x会显著激发h_i节点的函数值,因此输入向量x就是
huizhu
·
2016-07-19 22:16
为什么稀疏
自编码器
很少见到多层的?
AndrewNg的视频和资料也好,还是网上的资料和代码,以及书上的内容,我很少见到稀疏
自编码器
是多层的结构一般都是{N,m,N}的三层结构(一层是隐层,输入输出各一层)为什么很少见到例如{N,m,k,m
garfielder007
·
2016-07-10 00:16
Deep
Learning
Deep Learning(深度学习)之(三)Deep Learning的常用模型或者方法
九、DeepLearning的常用模型或者方法9.1、
AutoEncoder
自动编码器DeepLearning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,
等待破茧
·
2016-06-17 15:58
深度学习
Deep
Learning
keras实现deepid:flatten中间层、merge多个层次、二维图像的处理、权重的保存与重用、
Autoencoder
论文参考:SunY,WangX,TangX.Deeplearningfacerepresentationfrompredicting10,000classes[C]//ComputerVisionandPatternRecognition(CVPR),2014IEEEConferenceon.IEEE,2014:1891-1898.参考这个:https://github.com/stdcoutzy
mmc2015
·
2016-06-01 21:28
Theano
AND
Keras
Sparse
Autoencoder
稀疏自动编码
本系列文章都是关于UFLDLTutorial的学习笔记NeuralNetworks对于一个有监督的学习问题,训练样本输入形式为(x(i),y(i))。使用神经网络我们可以找到一个复杂的非线性的假设h(x(i))可以拟合我们的数据y(i)。我们先观察一个神经元的机制:每个神经元是一个计算单元,输入为x1,x2,x3,输出为:其中f()是激活函数,常用的激活函数是S函数:S函数的形状如下,它有一个很好
zm714981790
·
2016-05-31 20:00
自编码器
与堆叠
自编码器
简述
本文是对知乎问题为什么稀疏
自编码器
很少见到多层的?的回答,同时借此介绍下
自编码器
及其相关的一些知识。目录
自编码器
自编码器
简介
自编码器
与神经网络堆叠
自编码器
自编码器
的变种形式稀疏
自编码器
降噪自编
MemRay
·
2016-05-30 04:57
机器学习
Deep
Learning
Autoencoder
与RBM结合使用
AutoEncoder
是多层神经网络,其中输入层和输出层表示相同的含义,具有相同的节点数。AutoEncode学习的是一个输入输出相同的“恒等函数”。
wtq1993
·
2016-05-26 20:00
Deep Learning学习 之 CNN代码解析(MATLAB)
deepLearnToolbox-master是一个深度学习matlab包,里面含有很多机器学习算法,如卷积神经网络CNN,深度信念网络DBN,自动编码
AutoEncoder
(堆栈SAE,卷积CAE
SuPhoebe
·
2016-05-16 21:31
机器学习
&
深度学习
机器学习与数学模型
UFLDL 10 建立分类用深度学习网络
1微调Fine-tune上节中,介绍了利用
自编码器
和未标注样本,通过自学习或者样本更加本质的特征,这一节将会使用已标注样本对其进行微调,提高分类精度。
bea_tree
·
2016-05-11 15:00
深度学习
UFLDL
深度学习基础(十一)—— 稀疏
自编码器
(二)
损失函数无约束时网络的损失函数表达式如下:J(W,b)==1m[∑i=1mJ(W,b;x(i),y(i))]+λ2∑ℓ∑i=1s1∑j=1s2(W(ℓ)ji)21m[∑i=1m∥∥hW,b(x(i))−y(i)∥∥2]+λ2∑ℓ∑i=1s1∑j=1s2(W(ℓ)ji)2稀疏编码是对网络的隐含层的输出有了约束,即隐含层节点输出的平均值应尽量为0,这样的话,大部分的隐含层节点都处于非activite状
lanchunhui
·
2016-05-10 09:00
深度学习读书笔记之AE(自动编码
AutoEncoder
)
深度学习读书笔记之AE声明:1)该博文是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献。2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应,而且大部分内容都是直接抄NG的源博客的,如果某部分不小心侵犯了大家的利益,还望海涵,并联系老衲删除或修改,直到相关人士满意为止。3)本人才疏学浅,整理总结的时候难免出错,还望各位前辈
GarfieldEr007
·
2016-05-08 12:00
读书笔记
深度学习
ae
AutoEncoder
自动编码
关于深度学习
自编码器
理解
目前的深度学习有三种架构:SDA,RBM,CNN.其中我们学习的是
自编码器
。自编码训练遵循的是BP算法,但
zhcheng26
·
2016-05-05 11:00
优化
编码
迭代
深度学习
UFLDL 09 自我学习 Self-Taught Learning Unsupervised Feature Learning
基本思路如下:1.大量的无标签数据导入
自编码器
(
autoencoder
),得到其更加本质的特征;2.有标签数据导入同一个编码器,用得到的特征和标签进行训练,(使用普通的训练方法比如svm等)得到模型;3
bea_tree
·
2016-05-05 09:00
UFLDL
深度学习基础(八)—— 稀疏
自编码器
自编码器
神经网络尝试学习一个:hW,b(x)≈x的函数,换句话说,它尝试逼近一个恒等函数(identityfunction,或叫证同函数),使得输出x^接近于输入x。
lanchunhui
·
2016-04-29 11:00
UFLDL 笔记 05 自编码训练结果展示 Visualizing a Trained
Autoencoder
上一节中已经学会训练稀疏的
自编码器
,这一节将展示它神秘的隐藏单元。还要再借上一节的图用下:这里我们假设输入是一个10*10的图片,也就是有100个输入单元。
bea_tree
·
2016-04-23 09:00
UFLDL
稀疏
自编码器
一览表
下面是我们在推导sparseautoencoder时使用的符号一览表:符号含义训练样本的输入特征,.输出值/目标值.这里 可以是向量.在
autoencoder
中,.第 个训练样本输入为 时的假设输出
qq_25491201
·
2016-04-22 20:00
机器学习
稀疏自编码器一览表
可视化
自编码器
训练结果
训练完(稀疏)
自编码器
,我们还想把这
自编码器
学到的函数可视化出来,好弄明白它到底学到了什么。我们以在10×10图像(即n=100)上训练
自编码器
为例。
qq_25491201
·
2016-04-22 20:00
机器学习
可视化自编码器输出结果
【UFLDL-exercise7-stacked
autoencoder
for digit classification】
代码在此出于节约时间的考虑,两个
autoencoder
训练的最大迭代次数都只设置了100次(原先是400次),结果看起来还可以:-)someunrelativewords:本来想昨天就完成
qiusuoxiaozi
·
2016-04-11 20:00
【原】KMeans与深度学习自编码
AutoEncoder
结合提高聚类效果
这几天在做用户画像,特征是用户的消费商品的消费金额,原始数据(部分)是这样的:1idgoods_namegoods_amount21男士手袋1882.032淑女装2491.042女士手袋345.054基础内衣328.065商务正装4985.075时尚969.085女饰品86.096专业运动399.0106童装(中大童)2033.0116男士配件38.0我们看到同一个id下面有不同的消费记录,这个数
Charlotte77
·
2016-04-08 10:00
CAE(Convolutional Auto-Encode) 卷积自编码
下面谈一下自己的认识,算是总结吧CAE(ConvolutionalAuto-Encode)卷积自编码:一种卷积
自编码器
,其实现的过程与Auto-Encode的思想是一致
Losteng
·
2016-04-05 19:00
多层
自编码器
的微调
多层
自编码器
由多个稀疏
自编码器
和一个Softmax分类器构成;(其中,每个稀疏
自编码器
的权值可以利用无标签训练样本得到,Softmax分类器参数可由有标签训练样本得到)多层
自编码器
微调是指将多层
自编码器
看做是一个多层的神经网络
tina_ttl
·
2016-04-01 10:00
UFLDL教程(六)之栈式
自编码器
第0步:初始化一些参数和常数 第1步:利用训练样本集训练第一个稀疏编码器 第2步:利用训练样本集训练第二个稀疏编码器 第3步:利用第二个稀疏编码器提取到的特征训练softmax回归模型 第4步:利用误差反向传播进行微调 第5步:利用测试样本集对得到的分类器进行精度测试 下面将程序实现过程中的关键代码post出,欢迎各位网友指点!stackedAEExercise.mclc clear clos
tina_ttl
·
2016-04-01 10:00
UFLDL教程(五)之self-taught learning
这里所谓的自学习,其实就是利用稀疏
自编码器
对无标签样本学习其特征 该自学习程序包括两部分:稀疏
自编码器
学习图像特征(实现自学习)---用到无标签的样本集softmax回归对样本分类---用到有标签的训练样本集
tina_ttl
·
2016-04-01 10:00
caffe的Python API
1网络模型可视化可视化训练模型python~/caffe-master/python/draw_net.py~/caffe-master/examples/mnist/mnist_
autoencoder
.prototxtmnist_
autoencoder
.png
foolsnowman
·
2016-03-20 15:00
深度网络的预训练
1有限波尔兹曼机(RBM)2自动编码器(
Autoencoder
)2.1结构输入层神经元个数等于输出层神经元的个数。
奋斗啊哈
·
2016-03-10 14:34
神经网络与深度学习
上一页
31
32
33
34
35
36
37
38
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他