E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
UFLDL
UFLDL
教程:Exercise:Softmax Regression
Softmax分类函数的Python实现逻辑回归假设函数在线性回归问题中,假设函数具有如下形式:在logistic回归中,我们的训练集由m个已标记的样本构成:,其中输入特征。由于logistic回归是针对二分类问题的,因此类标记。逻辑回归的假设函数的输出值位于[0,1]之间,所以,我们需要找到一个满足这个性质的假设函数。在逻辑回归问题中,将该函数的形式转换为如下形式:其中,函数g称为S型函数(si
jiandanjinxin
·
2017-06-13 21:00
UFLDL
教程:Exercise:PCA in 2D & PCA and Whitening
统计学的基本概念统计学里最基本的概念就是样本的均值、方差、标准差。首先,我们给定一个含有n个样本的集合,下面给出这些概念的公式描述:均值:标准差:方差:均值描述的是样本集合的中间点,它告诉我们的信息是有限的,而标准差给我们描述的是样本集合的各个样本点到均值的距离之平均。标准差描述的是“散布度”。在概率论和统计学中,一个随机变量的方差描述的是它的离散程度,也就是该变量离其期望值的距离。一个实随机变量
jiandanjinxin
·
2017-06-13 07:00
UFLDL
教程:Exercise:Vectorization
载入数据并显示下载MINIST数据集及加载数据集的函数。MINIST数据集的介绍。%Changethefilenamesifyou'vesavedthefilesunderdifferentnames %Onsomeplatforms,thefilesmightbesavedas %train-images.idx3-ubyte/train-labels.idx1-ubyte images=loa
jiandanjinxin
·
2017-06-12 14:00
UFLDL
教程: Exercise: Sparse Autoencoder
自编码可以跟PCA一样,给特征属性降维一些matlab函数bsxfun: C=bsxfun(fun,A,B)表达的是两个数组A和B间元素的二值操作,fun是函数句柄或者m文件,或者是内嵌的函数。在实际使用过程中fun有很多选择比如说加,减等,前面需要使用符号’@’.一般情况下A和B需要尺寸大小相同,如果不相同的话,则只能有一个维度不同,同时A和B中在该维度处必须有一个的维度为1。比如说bsxfun
jiandanjinxin
·
2017-06-07 11:00
deep learning学习推荐网址
deeplearning快俩月了,但还是一点进展没有……还是没找到方法,一直关注python的写法,但是真正的learning实质并不懂~~所以还是找找专家们的说法吧,争取能搞清楚搞清楚……http://
ufldl
.stanford.edu
duanyajun987
·
2017-06-02 17:01
神经网络
python
神经网络之BP算法
最近在看深度学习的东西,一开始看的吴恩达的
UFLDL
教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充
Shmilysi
·
2017-05-05 19:23
模式识别
计算机视觉库整理2017
转自:http://www.cnblogs.com/tornadomeet/archive/2012/05/24/2515980.htmlDeepLearning(深度学习):
ufldl
的2个教程(这个没得说
小新识图
·
2017-04-24 11:35
图像处理
基于tensorflow的栈式自编码器实现
http://
ufldl
.stanford.edu/wiki/inde
老笨妞
·
2017-03-30 11:36
tensorflow
PCA SVD LDA --- Machine Learning笔记1
PCA推导部分与笔记详见笔记本与
UFLDL
教程从几何上形象地对SVD与特征值的理解:https://my.oschina.net/findbill/blog/535044其实SVD包含于PCA之中,相比于针对方阵的特征值分解
Pygmalion_Chen
·
2017-03-06 15:31
ML
PCA SVD LDA --- Machine Learning笔记1
PCA推导部分与笔记详见笔记本与
UFLDL
教程从几何上形象地对SVD与特征值的理解:https://my.oschina.net/findbill/blog/535044其实SVD包含于PCA之中,相比于针对方阵的特征值分解
Pygmalion_Chen
·
2017-03-06 15:31
ML
ufldl
白化
假设X为矩阵,行数为特征数L,列数为样本数M。SVD:对角化:求SVD:,转化为求对角化()。求对角化:求出所有特征值,对应的u排列成矩阵就是U。PCA降维:,其中。一些解释:对X进行旋转变换,特征选择,恢复原数据域。白化:假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的。白化的目的就是降低输入的冗余性;更正式的说,我们希望通过白化过程使得学习算法的输入具有如
qq229873466
·
2017-02-18 15:40
机器学习
机器学习
神经网络(vanilla ver.) in numpy
MATLAB推荐王小川的45个神经网络案例第一章数学推导推荐吴恩达的
Ufldl
反向传导算法这个推荐用jupyter玩,把train和inference分开,可以用同样的parameter测着玩细节ac
风铃Ryan
·
2017-02-08 13:31
深度学习
python
机器学习
深度学习斯坦福cs231n 课程笔记
前言对于深度学习,新手我推荐先看
UFLDL
,不做assignment的话,一两个晚上就可以看完。毕竟卷积、池化啥的并不是什么特别玄的东西。课程简明扼要,一针见血,把最基础、最重要的点都点出来了。
绝对不要看眼睛里的郁金香
·
2017-02-06 21:16
【深度学习:CNN】Batch Normalization解析(3)
转载:http://blog.csdn.net/intelligence1994/article/details/53888270白化(sphering)参考http://
ufldl
.stanford.edu
荪荪
·
2017-01-18 14:59
深度学习
RCNN
人工智能与OCR识别研究
转载请注明:http://blog.csdn.net/forest_world人工智能:论文摘录:TheStreetViewHouseNumbers(SVHN)Datasethttp://
ufldl
.stanford.edu
forest_loop
·
2016-12-21 09:42
Machine
Vision
Image
Algorithm
Deep
Learning
深度学习 — 反向传播(BP)理论推导
关于中如何编辑Latex数学公式[RNN]SimpleLSTM代码实现&BPTT理论推导【知识预备】:
UFLDL
教程-反向传导算法首先我们不讲数学,先上图解,看完图不懂再看后面:"BP"MathPrinciple
zhwhong
·
2016-12-13 10:15
UFLDL
教程Exercise答案(3.1):PCA in 2D
教程地址:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
_TutorialExercise地址:http://deeplearning.stanford.edu
wangxiao7474
·
2016-11-21 13:00
matlab
深度学习
深度学习与卷积神经网络学习
深度学习与卷积神经网络学习人工神经网络入门http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
%E6%95%99%E7%A8%8B(斯坦福大学笔记)
CrazyVertigo
·
2016-11-20 15:13
Deep
Learning
卷积神经网络CNN解析-针对斯坦福的深度学习教程
附上针对的实验:http://
ufldl
.stanford.edu/tutorial/supervised/ExerciseConvolutionalNeuralNetwork/这里就不陈述卷积网络的意义了
JuracyKacha
·
2016-10-30 17:14
机器学习理论入门
计算机视觉常用资源
p/4267248.html和http://www.cnblogs.com/tornadomeet/archive/2012/05/24/2515980.htmlDeepLearning(深度学习):
ufldl
cvml
·
2016-10-19 14:20
计算机视觉
机器学习
深度学习斯坦福cs231n 课程笔记
前言对于深度学习,新手我推荐先看
UFLDL
,不做assignment的话,一两个晚上就可以看完。毕竟卷积、池化啥的并不是什么特别玄的东西。课程简明扼要,一针见血,把最基础、最重要的点都点出来了。
三更灯火五更鸡
·
2016-10-11 19:12
深度学习
深度学习调参
[+]前言对于深度学习,新手我推荐先看
UFLDL
,不做assignment的话,一两个晚上就可以看完。毕竟卷积、池化啥的并不是什么特别玄的东西。课程简明扼要,一针见血,把最基础、最重要的点都点出来了。
bbzz2
·
2016-09-20 15:24
深度学习
稀疏自动编码器 (Sparse Autoencoder)
摘要一个新的系列,来自于斯坦福德深度学习在线课程:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
_Tutorial。
JY_0812
·
2016-09-16 16:40
算法
kl距离(散度)&l1范数区别
在这篇文章中:http://
ufldl
.stanford.edu/wiki/index.php/稀疏编码kl散度(divergence)公式:根据kl散度列出的优化问题的公式,会用到l1范数,因此它们是存在某种关系的
Sun7_She
·
2016-08-24 16:16
深度学习
UFLDL
sparse coding ICA RICA[待更]
Reference:[1]http://blog.csdn.net/zouxy09/article/details/8777094/[2]http://deeplearning.stanford.edu/wiki/index.php/%E7%A8%80%E7%96%8F%E7%BC%96%E7%A0%81[3]http://www.cnblogs.com/tornadomeet/archive/2
hello_pig1995
·
2016-08-11 23:16
机器学习
计算机视觉
UFLDL
深度学习
UFLDL
教程翻译之自动编码器
一、自动编码器目前为止,我们介绍了神经网络在有标签的训练样本的有监督学习中的应用.现在假设我们只有一个未标记的训练集{x(1),x(2),x(3),…},其中x是n维的.自动编码器神经网络是一种采用反向传播的无监督学习算法,让目标值和输入相等,即让y(i)=x(i).这是一个自动编码器:自动编码器试图学习函数hW,b(x)≈x.换句话说,它试图学习恒等函数的逼近,使得输出x^与x类似.这个将要学习
hunterlew
·
2016-08-10 21:16
深度学习
深度学习_在路上
UFLDL
学习笔记
前言最近开始看AndrewNg大牛的深度学习教程,算是作为对自己的一个激励,也作为日后回顾的办法,开始记录学习笔记,每一章节分别对应,所有章节写在这一片文章里便于查询。所以我会不断更新滴~线性回归本章大致讲解了线性分类器的原理(他假设我们已经有这些基础了,只是作为复习梯度下降的一个办法,其实能看这些教程的都应该有机器学习的基础知识,所以有好多基础知识我就直接省略不写啦),然后练习是实现目标函数以及
MageekChiu
·
2016-07-30 00:00
神经网络
机器学习
深度学习
深度学习资源链接(更新中)
neuralnetworksanddeeplearning.com/chap1.htmlCaffe快速入门http://shengshuyang.github.io/A-step-by-step-guide-to-Caffe.htmlCNN的反向传播http://
ufldl
.stanford.edu
liyaohhh
·
2016-07-28 11:16
caffe
深度学习入门
深度学习斯坦福cs231n 课程笔记
前言对于深度学习,新手我推荐先看
UFLDL
,不做assignment的话,一两个晚上就可以看完。毕竟卷积、池化啥的并不是什么特别玄的东西。课程简明扼要,一针见血,把最基础、最重要的点都点出来了。
dinosoft
·
2016-07-03 01:59
机器学习
深度学习斯坦福cs231n 课程笔记
前言对于深度学习,新手我推荐先看
UFLDL
,不做assignment的话,一两个晚上就可以看完。毕竟卷积、池化啥的并不是什么特别玄的东西。课程简明扼要,一针见血,把最基础、最重要的点都点出来了。
dinosoft
·
2016-07-03 01:59
DL
深度学习
cs231n
机器学习
一文弄懂神经网络中的反向传播法——BackPropagation
最近在看深度学习的东西,一开始看的吴恩达的
UFLDL
教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充
Charlotte77
·
2016-06-30 16:00
神经网络与BP算法推导
参考资料
UFLDL
,BP推导,神经网络教材。神经网络结构典型网络为浅层网络,一般2~4层。
tonsam
·
2016-06-06 08:42
机器学习笔记
BP算法
学习笔记
斯坦福大学的机器学习跟深度学习。
course=MachineLearninghttp://deeplearning.stanford.edu/wiki/index.php/
UFLDL
_Tutorialhttp://www.andrewng.org
明星程序员之魔者侠情
·
2016-06-03 22:00
CS231n 卷积神经网络与计算机视觉 7 神经网络训练技巧汇总 梯度检验 参数更新 超参数优化 模型融合 等
1梯度检验权重的更新梯度是否正确决定着函数是否想着正确的方向迭代,在
UFLDL
中我们提到过,计算时梯度公式如果计算错误是不容被察觉的,我们需要比较分析法得到梯度与数值法得到的梯度是否相似,下面是一些技巧
bea_tree
·
2016-05-28 23:00
神经网络
深度学习
ensemble
ConvNets
模型融合
cs231n 卷积神经网络与计算机视觉 4 Backpropagation 详解反向传播
反向传播backpropagation反向传播在
UFLDL
中的介绍已经较为具体(http://blog.csdn.net/bea_tree/article/details/51174776),这里仅作补充
bea_tree
·
2016-05-25 22:00
神经网络
计算机视觉
cnn
深度学习
反向传播
计算机视觉库整理
转自:http://www.cnblogs.com/tornadomeet/archive/2012/05/24/2515980.htmlDeepLearning(深度学习):
ufldl
的2个教程(这个没得说
寒梅傲骨
·
2016-05-20 09:45
机器学习
opencv学习
神经网络学习:逻辑回归与 SoftMax 回归
UFLDLTutorial翻译系列:http://deeplearning.stanford.edu/wiki/index.php/
UFLDL
_Tutorial第四章:SoftMax回归 简介:见AI:
wishchin
·
2016-05-18 18:00
UFLDL
11 卷积与池化 convolution pooling
卷积特征convolution之前我们都是用很小的图片来做示范,比如8x8,但是很多图片是很大的,比如是100x100,假设我们需要在隐含层提取100个特征,那么一共需要的参数有100x100x100=10w个参数,参数太多显然是不合适的,至少计算速度就会被降低。于是乎,我们受到动物视觉中某些神经只受局部区域的刺激的启发,每次只将图像局部的一小块接入网络,计算我们需要的特征,训练特征(计算分类前的
bea_tree
·
2016-05-11 20:00
UFLDL
10 建立分类用深度学习网络
1微调Fine-tune上节中,介绍了利用自编码器和未标注样本,通过自学习或者样本更加本质的特征,这一节将会使用已标注样本对其进行微调,提高分类精度。以上是通过自学习获得的分类器,整个过程分为两部分:1.先通过自学习得到特征层(a1,a2,a3)2.使用分类器(图中可以看做是logistic)和得到的新特征进行分类显然,我门的已标注样本仅仅在在第二部分起作用,而第一部分也是对于分类很重要的步骤,所
bea_tree
·
2016-05-11 15:00
深度学习
UFLDL
机器学习之神经网络bp算法推导
这是一篇学习
UFLDL
反向传导算法的笔记,按自己的思路捋了一遍,有不对的地方请大家指点。首先说明一下神经网络的符号:1.nl表示神经网络的层数。2.sl表示第l层神经元个数,不包含偏置单元。
_bigPo
·
2016-05-05 22:56
机器学习
机器学习之神经网络bp算法推导
这是一篇学习
UFLDL
反向传导算法的笔记,按自己的思路捋了一遍,有不对的地方请大家指点。首先说明一下神经网络的符号:1.nl表示神经网络的层数。2.sl表示第l层神经元个数,不包含偏置单元。
firethelife
·
2016-05-05 22:00
机器学习
神经网络
UFLDL
09 自我学习 Self-Taught Learning Unsupervised Feature Learning
1总体思路2获取特征3利用特征其他本文主要是说自我学习和无监督的特征学习,并不是我们之前说的无监督学习的聚类等内容。1总体思路这里的自我学习是特征的学习,是通过自编码和稀疏矩阵得到特征。基本思路如下:1.大量的无标签数据导入自编码器(autoencoder),得到其更加本质的特征;2.有标签数据导入同一个编码器,用得到的特征和标签进行训练,(使用普通的训练方法比如svm等)得到模型;3.利用模型进
bea_tree
·
2016-05-05 09:00
UFLDL
UFLDL
08 Softmax Regression
所谓softmaxregression是在logisticregression基础上的升级版。logistics是二分类,而softmax可以多分类。1logisticregression学习softmaxregression之前我们先回归一下logisticregression的相关知识。(参见http://blog.csdn.net/bea_tree/article/details/50432
bea_tree
·
2016-05-04 09:00
UFLDL
07 白化 whitening/sphering
什么是白化白化是将不同特征的相关性去掉相,并且将新特征的数据的的方差化为相同。至于为什么需要白化,文中只说了有些算法需要它作为预处理,quora上的一个问题也许会有帮助。https://www.quora.com/Computer-Vision-In-sphering-whitening-what-advantage-does-making-the-features-have-the-same-v
bea_tree
·
2016-05-02 23:00
UFLDL
UFLDL
06 PCA 主成分分析法
引言PrincipalComponentsAnalysis,是一种无监督学习方法,主要是用来将特征的主要分成找出,并去掉基本无关的成分,从而达到降维的目的。PCA的用处很多,此处不做详述。基本原理什么是主成分实际情况下,很多特征都是有重复的内容的,他们彼此包含一部分信息,但是我们可以利用他们的组合得到一个包含更多信息的新特征,其中可以得到的包含最多信息的新特征就是这些特征中最重要的特征。假设原来的
bea_tree
·
2016-04-30 23:00
pca
机器学习----Softmax回归
本篇博客主要是参考吴恩达教授的
Ufldl
教程,教程链接如下:http://
ufldl
.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92OK!
Sunshine_in_Moon
·
2016-04-30 16:00
机器学习、深度学习教程和代码资源帖
深度学习以模型分类python数据分析数据挖掘数据集竞赛及代码资源帖的资源帖深度学习(0)Neuralnetworksanddeeplearning:我的深度学习启蒙电子书(1)
UFLDL
教程中文版
UFLDL
lanchunhui
·
2016-04-29 16:00
softmax代价函数的导数计算
对于softmax的理解请参考
Ufldl
教程,本文仅对代价函数求导部分进行推导softmaxregression代价函数:J(θ)=−1m⎡⎣∑i=1m∑j=1k1{y(i)=j}logeθTjx(i)
小胖蹄儿
·
2016-04-27 21:05
Deep
Learning
Convolutional Neural Network (to be continued)
毕设决定做CNN,东西确实挺繁的,今天刚把CNN中具体的反向传播算法搞明白,感觉收获也有一些:1,起先总是认为所谓的CNN,局部感受野,权值共享什么的都是预先训练好的,主要是因为自己刚看完Ng的
UFLDL
qiusuoxiaozi
·
2016-04-26 19:00
cnn
bp反向传播
深度学习 Deep Learning
UFLDL
最新Tutorial 学习笔记 5:Softmax Regression
SoftmaxRegressionTutorial地址:http://
ufldl
.stanford.edu/tutorial/supervised/SoftmaxRegression/从本节开始,难度开始加大了
u011534057
·
2016-04-24 21:00
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他