E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
UFLDL
UFLDL
笔记 05 自编码训练结果展示 Visualizing a Trained Autoencoder
上一节中已经学会训练稀疏的自编码器,这一节将展示它神秘的隐藏单元。还要再借上一节的图用下:这里我们假设输入是一个10*10的图片,也就是有100个输入单元。对于每个隐藏单元都会进行如下计算:a2i是隐藏单元的计算结果。每一个a2i都有100个输入,这里要求的就是什么样的输入的组合能够让该隐藏单元最兴奋。这里有100个输入也就是有100个未知数,如何求解的我们就暂且先放过,其最后的结果是对于第i个节
bea_tree
·
2016-04-23 09:00
UFLDL
Caffe源码阅读(2) 卷积层
一开始笔者先看了卷积层的梯度传导公式,参考了这两篇:http://
ufldl
.stanford.edu/tutorial/supervised/ConvolutionalNeuralNetwork/http
u011534057
·
2016-04-22 23:00
Caffe源码阅读(3)Softmax层和SoftmaxLoss层
//zhangliliang.com/2015/05/27/about-caffe-code-softmax-loss-layer/关于softmax回归看过最清晰的关于softmax回归的文档来源自
UFLDL
u011534057
·
2016-04-22 23:00
UFLDL
笔记 04 自编码算法与稀疏性 Autoencoders and Sparsity
1自编码神经网络所谓自编码神经网络,就是如下图的神经网络简单来说,输入输出都尽量是同样的输入值,但是其中的隐含层要尽量的少其中不需要labels也就是无监督学习其中的意义是:将很多输入的特征,转化为很少的隐含层,然后这少量的隐含层还能转化为原来的样子,其中得到的隐含层是最重要的,他抓住了输入特征的本质,像这样简单的神经网络,其效果类似与主成分分析法得到的结果。2稀疏性上面说了隐含层节点很少,上图中
bea_tree
·
2016-04-19 23:00
UFLDL
【Notes on Neural Networks and Deep Learning】(to be continued)
因为看到了一些从逻辑门角度由感知器过渡到常见神经网络(sigmoidneuron)的内容,感觉有些深度,所以打算看看;该书专注于回答”为什么“,能使读者获得更多有关神经网络和深度学习的intuition,既可当做
UFLDL
qiusuoxiaozi
·
2016-04-17 23:00
神经网络
深度学习
UFLDL
笔记 03 梯度检验与高级优化算法介绍
梯度检验Gradientchecking在自己编代码计算上节中的反向传递算法时,有时候即使程序出错,造成了只优化一部分权重,或者其他原因,得到的结果看起来不错,但是不是最优结果。这一节就介绍了一个检验在求导时是否正确的方法。在高数中我们知道,下式成立在这里我们也可以用这样的方法来检验得到的值是不是与等式右边的值相同,或者相似。文中说,如果取ϵ=0.0001一般得到的结果与实际结果至少四位有效数字相
bea_tree
·
2016-04-17 22:00
UFLDL
UFLDL
笔记 02 Backpropagation Algorithm
BackpropagationAlgorithm反向传导算法建立损失函数首先要明确,神经网络的训练就是寻找最佳的权重W和偏置项b的过程,单个样本的求解的目标函数,也就是损失函数为:如果有多个样本,那么就是将多个损失函数求和,通常为了防止过拟合要加入规则化项(权重衰减项),公式如下:为什么这样会防止过拟合呢?将w单独列出,如果其惩罚因子越大那么它的值就会越小,试想一下,如果在二维平面中,斜率减小,是
bea_tree
·
2016-04-17 21:00
UFLDL
UFLDL
笔记 01 神经网络
UFLDL
=UnsupervisedFeatureLearningandDeepLearning01神经网络神经网络由神经元构成,首先看神经元的结构:1.1神经元单个神经元简单来说就是输入数值(刺激),
bea_tree
·
2016-04-17 19:33
UFLDL
笔记 01 神经网络
UFLDL
=UnsupervisedFeatureLearningandDeepLearning01神经网络神经网络由神经元构成,首先看神经元的结构:1.1神经元单个神经元简单来说就是输入数值(刺激),
bea_tree
·
2016-04-17 19:00
深度学习
UFLDL
【
UFLDL
-notes of attached materials(to be continued)】
DataPreprocessing:对基于正交化ICA的模型来说,保证输入数据尽可能地白化(即协方差矩阵为单位矩阵)非常重要。这是因为:这类模型需要对学习到的特征做正交化,以解除不同维度之间的相关性(详细内容请参考ICA一节)。因此在这种情况下,epsilon要足够小(比如epsilon=1e−6)。??对于大图像,采用基于PCA/ZCA的白化方法是不切实际的,因为协方差矩阵太大。在这些情况下我们
qiusuoxiaozi
·
2016-04-15 14:00
【
UFLDL
-exercise9-Convolution and Pooling】
做完了CNN的练习,思想是:在面对比较大的图像时(64*64),如果直接列向量化,维数太高,sparseautoencoder的计算过繁;因此采用的策略是:先从训练集中随机地下采样众多(8*8)的patch,然后学习8*8图像的W矩阵(隐层有400个单元,学习到的矩阵W是400*64的,但是这里视作有400个w矩阵,也就是每个隐层的unit对应一个8*8的矩阵,这样子做是为了便于后面的卷积计算),
qiusuoxiaozi
·
2016-04-13 20:00
cnn
【
UFLDL
-exercise8 Linear Decoder】
Inthisexercise,youwillimplementalineardecoder(asparseautoencoderwhoseoutputlayerusesalinearactivationfunction).YouwillthenapplyittolearnfeaturesoncolorimagesfromtheSTL-10dataset.Thesefeatureswillbeuse
qiusuoxiaozi
·
2016-04-12 23:00
【
UFLDL
-exercise7-stacked autoencoder for digit classification】
刚刚完成
UFLDL
练习7:程序整体运行30多分钟BeforeFinetuningTestAccuracy:89.610%AfterFinetuningTestAccuracy:98.100%我简直快高兴得疯了
qiusuoxiaozi
·
2016-04-11 20:00
UFLDL
Tutorial 笔记
关于反向传播误差的推导,可以参考下面这个博客,讲得更清楚。其实一句话就可以讲清楚:多层复合函数的求导,足矣!http://blog.sina.com.cn/s/blog_88d97475010164yn.html另外,看了一下网易上加州理工YaserAbu-Mostafa的机器学习与数据挖掘课程,第十讲神经网络讲得很好。首先从期望的角度对比了batchgradientdescent&stochas
qiusuoxiaozi
·
2016-04-02 18:00
机器学习
神经网络
UFLDL
教程(四)之Softmax回归
关于AndrewNg的machinelearning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章。下面,对Logistic回归做一个简单的小结:给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步:①计算逻辑回归假设函数的取值hθ(x),其中n是样本的特征维度②如果hθ(x)>=0.5,则x输入正类,否则,x属于负类或者
tina_ttl
·
2016-04-01 10:00
UFLDL
教程(六)之栈式自编码器
第0步:初始化一些参数和常数 第1步:利用训练样本集训练第一个稀疏编码器 第2步:利用训练样本集训练第二个稀疏编码器 第3步:利用第二个稀疏编码器提取到的特征训练softmax回归模型 第4步:利用误差反向传播进行微调 第5步:利用测试样本集对得到的分类器进行精度测试 下面将程序实现过程中的关键代码post出,欢迎各位网友指点!stackedAEExercise.mclc clear clos
tina_ttl
·
2016-04-01 10:00
UFLDL
教程之(三)PCA and Whitening exercise
Exercise:PCAandWhitening第0步:数据准备
UFLDL
下载的文件中,包含数据集IMAGES_RAW,它是一个512*512*10的矩阵,也就是10幅512*512的图像(a)载入数据利用
tina_ttl
·
2016-04-01 10:00
从
UFLDL
开始!
UFLDL
即UnsupervisedFeatureLearningandDeepLearning发现这个网页教程居
tina_ttl
·
2016-04-01 10:00
UFLDL
教程之(一)sparseae_exercise
下面,将
UFLDL
教程中的sparseae_exercise练习中的各函数及注释列举如下 首先,给出各函数的调用关系主函数:train.m(1)调用sampleIMAGES函数从已知图像中扣取多个图像块儿
tina_ttl
·
2016-04-01 10:00
UFLDL
教程(五)之self-taught learning
这里所谓的自学习,其实就是利用稀疏自编码器对无标签样本学习其特征 该自学习程序包括两部分:稀疏自编码器学习图像特征(实现自学习)---用到无标签的样本集softmax回归对样本分类---用到有标签的训练样本集 准备工作下载YannLecun的MNIST数据集,本程序用到了如下的两个数据集: 第0步:设置神经网络的结构该神经网络包括三层:输入层的神经元个数(数字识别,则设置输入的图像大小)输出端的神
tina_ttl
·
2016-04-01 10:00
开始学习深度学习和循环神经网络Some starting points for deep learning and RNNs
deFreitasandOpenAIhavedoneredditAMA's.TheseareniceplacestostarttogetaZeitgeistofthefield.HintonandNglecturesatCoursera,
UFLDL
garfielder007
·
2016-03-29 12:35
深度学习
循环神经网络
deep
learning
RNNs
Deep
Learning
UFLDL
教程之三:PCA & Whitening
参考:具体可参考:http://www.cnblogs.com/tornadomeet/archive/2013/03/21/2973631.htmlcloseall%%================================================================%%Step0:Loaddata% Wehaveprovidedthecodetoloaddatafr
baobei0112
·
2016-02-25 16:00
UFLDL
教程练习之二:稀疏自编码器和矢量化编程
可视化自编码器,可视化的是要学习的参数W1。1:稀疏自编码器Step1:在sampleIMAGES.m文件中获取生成训练集的代码,其中tic和toc是用来记时用的。tic image_size=size(IMAGES); i=randi(image_size(1)-patchsize+1,1,numpatches); %产生1*10000个随机数 范围在[1,image_size(1)-
baobei0112
·
2016-02-19 15:00
深度学习个人总结之四----自编码算法(AutoEncoder)
本篇文章主要参考了以下内容:1.http://blog.csdn.net/zouxy09/article/details/87755242.http://
ufldl
.stanford.edu/wiki/
kevin_bobolkevin
·
2016-02-12 15:00
常用学习资料整理(ing…)
DeepLearning(深度学习):tornadomeet博客导航
ufldl
的教程:一
ufldl
的教程:一(中文版)
ufldl
的教程:二吴立德老师《深度学习课程》DeepLearning学习笔记整理系列
worr
·
2016-02-10 19:00
UFLDL
教程之一 (Sparse Autoencoder练习)
反向传播计算可以参考http://tieba.baidu.com/p/3013551686前言斯坦福深度学习在线课程是AndrewNg编制的,该教程以深度学习中的重要概念为线索,基本勾勒出了深度学习的框架。为了简明扼要,该教程几乎省略了数学推导和证明过程。我写这个系列不追求概念的讲解,因为教程已经解释的很清楚了,我的目标是把教程所省略的一些关键的数学推导给出来。因为数学原理是深入理解算法模型所绕不
baobei0112
·
2016-02-05 15:00
深度学习 Deep Learning
UFLDL
最新 Tutorial 学习笔记 1:Linear Regression
1前言AndrewNg的
UFLDL
在2014年9月底更新了。对于開始研究DeepLearning的童鞋们来说这真的是极大的好消息!
lcchuguo
·
2016-02-03 21:00
深度学习 Deep Learning
UFLDL
最新 Tutorial 学习笔记 1:Linear Regression
1前言AndrewNg的
UFLDL
在2014年9月底更新了。对于開始研究DeepLearning的童鞋们来说这真的是极大的好消息!
lcchuguo
·
2016-02-03 21:00
caffe官网的部分翻译及NG的教程
ConvolutionalArchitectureforFastFeatureEmbedding官网的个人翻译:http://blog.csdn.net/fengbingchun/article/details/49535873NG的英文教程:http://
ufldl
.stanford.edu
一动不动的葱头
·
2016-02-01 09:00
Deep Learning(深度学习)
DeepLearning(深度学习):
ufldl
的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一
ufldl
的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二Bengio
江中炼
·
2016-01-27 17:00
机器学习
资源
资料
deep
dl
Learning(深度学习)
【机器学习】
UFLDL
练习2
addpath../common addpath../common/minFunc_2012/minFunc addpath../common/minFunc_2012/minFunc/compiled %LoadtheMNISTdataforthisexercise. %train.Xandtest.Xwillcontainthetrainingandtestingimages. %Eachm
tracer9
·
2016-01-23 16:00
机器学习
【机器学习】
UFLDL
练习1
% %ThisexerciseusesadatafromtheUCIrepository: %Bache,K.&Lichman,M.(2013).UCIMachineLearningRepository %http://archive.ics.uci.edu/ml %Irvine,CA:UniversityofCalifornia,SchoolofInformationandComputerSci
tracer9
·
2016-01-23 15:00
机器学习
机器学习与数据挖掘、计算机视觉方法资料汇总(永久更新)
后文提到的主要资料书籍汇总:NgCS229:斯坦福AndrewNg机器学习课程,网易公开课和coursera上都有视频;
UFLDL
教程:AndrewNg深度学习教程:http://deeplearning.stanford.edu
u012816943
·
2016-01-18 23:00
数据挖掘
机器学习
Theano-Deep Learning Tutorials 笔记:Stacked Denoising Autoencoders (SdA)
SdA.htmlTheStackedDenoisingAutoencoder(SdA)isanextensionofthestackedautoencoder[Bengio07]anditwasintroducedin[Vincent08].推荐先看这个
UFLDL
u012816943
·
2016-01-14 09:00
tutorials
deep
learning
theano
Theano-Deep Learning Tutorials 笔记:Denoising Autoencoders (dA)
AutoencodersSeesection4.6of[Bengio09]foranoverviewofauto-encoders.
UFLDL
中自编码介绍http://deeplearning.stanford
u012816943
·
2016-01-12 14:00
deep
learning
theano
[机器学习]
UFLDL
笔记 - ICA(Independent Component Analysis)(Code)
引言机器学习栏目记录我在学习MachineLearning过程的一些心得笔记,涵盖线性回归、逻辑回归、Softmax回归、神经网络和SVM等等,主要学习资料来自StandfordAg老师的教程,同时也查阅并参考了大量网上的相关资料(在后面列出)。本文主要记录我在学习ICA(独立成分分析)过程中的心得笔记,对于ICA模型的理解和疑问,也纠正网络上一些Tutorial、资料和博文中的错误,欢迎大家一起
walilk
·
2016-01-07 09:00
机器学习
ICA
独立成分分析
[机器学习]
UFLDL
笔记 - ICA(Independent Component Analysis)(Representation)
引言机器学习栏目记录我在学习MachineLearning过程的一些心得笔记,涵盖线性回归、逻辑回归、Softmax回归、神经网络和SVM等等,主要学习资料来自StandfordAg老师的教程,同时也查阅并参考了大量网上的相关资料(在后面列出)。本文主要记录我在学习ICA(独立成分分析)过程中的心得笔记,对于ICA模型的理解和疑问,也纠正网络上一些Tutorial、资料和博文中的错误,欢迎大家一起
WangBo_NLPR
·
2016-01-06 13:39
机器学习
[机器学习]
UFLDL
笔记 - ICA(Independent Component Analysis)(Representation)
引言机器学习栏目记录我在学习MachineLearning过程的一些心得笔记,涵盖线性回归、逻辑回归、Softmax回归、神经网络和SVM等等,主要学习资料来自StandfordAg老师的教程,同时也查阅并参考了大量网上的相关资料(在后面列出)。本文主要记录我在学习ICA(独立成分分析)过程中的心得笔记,对于ICA模型的理解和疑问,也纠正网络上一些Tutorial、资料和博文中的错误,欢迎大家一起
walilk
·
2016-01-06 13:00
机器学习
ICA
独立成分分析
计算机视觉整理库
如果发现有新的库,可以推荐我加进来转自:http://www.cnblogs.com/tornadomeet/archive/2012/05/24/2515980.htmlDeepLearning(深度学习):
ufldl
无敌三角猫
·
2015-12-30 15:43
UFLDL
教程答案(8):Exercise:Convolution and Pooling
教程地址:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
%E6%95%99%E7%A8%8B练习地址:http://deeplearning.stanford.edu
u012816943
·
2015-12-27 11:00
NG
Andrew
深度学习
UFLDL教程答案
UFLDL
教程答案(7):Exercise:Learning color features with Sparse Autoencoders
教程地址:http://deeplearning.stanford.edu/wiki/index.php/%E7%BA%BF%E6%80%A7%E8%A7%A3%E7%A0%81%E5%99%A8练习地址:http://deeplearning.stanford.edu/wiki/index.php/Exercise:Learning_color_features_with_Sparse_Auto
u012816943
·
2015-12-23 21:00
NG
Andrew
深度学习
UFLDL教程答案
UFLDL
教程答案(6):Exercise:Implement deep networks for digit classification
教程地址:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
%E6%95%99%E7%A8%8B练习地址:http://deeplearning.stanford.edu
u012816943
·
2015-12-20 13:00
NG
Andrew
深度学习
UFLDL教程答案
stackedAE
UFLDL
教程答案(5):Exercise:Self-Taught Learning
教程地址:http://deeplearning.stanford.edu/wiki/index.php/%E8%87%AA%E6%88%91%E5%AD%A6%E4%B9%A0练习地址:http://deeplearning.stanford.edu/wiki/index.php/Exercise:Self-Taught_Learning 1.习惯性废话几句1.这个练习要把之前的稀疏自编码器与s
u012816943
·
2015-12-19 12:00
NG
learning
Andrew
深度学习
Self-Taught
UFLDL教程答案
UFLDL
教程答案(4):Exercise:Softmax Regression
教程地址:http://deeplearning.stanford.edu/wiki/index.php/Exercise:Softmax_Regression练习地址:http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%921.几个要点(1)参数冗余: 如果参数是代价函数的极小值点,那么同样也
u012816943
·
2015-12-19 11:00
NG
Andrew
深度学习
Regression
SoftMax
UFLDL教程答案
UFLDL
教程答案(3):Exercise:PCA_in_2D&PCA_and_Whitening
教程地址:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
%E6%95%99%E7%A8%8B练习地址1:http://deeplearning.stanford.edu
u012816943
·
2015-12-12 14:00
NG
Andrew
深度学习
UFLDL教程答案
UFLDL
教程答案(2):Exercise:Vectorization
教程地址:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
%E6%95%99%E7%A8%8B练习地址:http://deeplearning.stanford.edu
u012816943
·
2015-12-12 13:00
NG
Andrew
深度学习
UFLDL教程答案
UFLDL
教程答案(1):Exercise:Sparse_Autoencoder
教程网址:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
%E6%95%99%E7%A8%8B练习网址:http://deeplearning.stanford.edu
u012816943
·
2015-12-12 09:00
NG
深度学习
Andrew
UFLDL教程答案
机器学习&深度学习实践(python版)系列----Linear Regression(线性回归)
course=MachineLearning深度学习:http://
ufldl
.stanford.edu/wiki/index.php/
UFLDL
%E6
Sunshine_in_Moon
·
2015-12-11 14:05
机器学习&深度学习实践(python版)系列----Linear Regression(线性回归)
course=MachineLearning深度学习:http://
ufldl
.stanford.edu/wiki/index.php/
UFLDL
Sunshine_in_Moon
·
2015-12-11 14:00
Stanford
UFLDL
教程 线性解码器
线性解码器Contents[hide]1稀疏自编码重述2线性解码器3中英文对照4中文译者稀疏自编码重述稀疏自编码器包含3层神经元,分别是输入层,隐含层以及输出层。从前面(神经网络)自编码器描述可知,位于神经网络中的神经元都采用相同的激励函数。在注解中,我们修改了自编码器定义,使得某些神经元采用不同的激励函数。这样得到的模型更容易应用,而且模型对参数的变化也更为鲁棒。回想一下,输出层神经元计算公式如
garfielder007
·
2015-12-07 09:03
斯坦福UFLDL教程
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他