E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SGD随机梯度下降
Mahout 算法
一、分类算法 (一)Logistic 回归(
SGD
) (二)Bayesian&n
wbj0110
·
2014-05-17 10:00
Mahout
Mahout 算法
一、分类算法 (一)Logistic 回归(
SGD
) (二)Bayesian&n
wbj0110
·
2014-05-17 10:00
Mahout
简单易学的机器学习算法——Logistic回归
二、最优化方法确定最佳回归系数最优化方法有基于梯度的梯度下降法、梯度上升发,改进的
随机梯度下降
法等等。基于梯
zhiyong_will
·
2014-05-12 11:46
Machine
Learning
机器学习
数据挖掘算法
简单易学的机器学习算法——Logistic回归
二、最优化方法确定最佳回归系数 最优化方法有基于梯度的梯度下降法、梯度上升发,改进的
随机梯度下降
法等等
google19890102
·
2014-05-12 11:00
机器学习
Logistic回归
梯度下降
梯度
Mahout线性回归算法源码分析(1)--实战
版本:mahout0.9Mahout里面使用逻辑回归(logisticregression)的主要两个类是org.apache.mahout.classifier.
sgd
.TrainLogistic、org.apache.mahout.classifier.
sgd
.RunLogistic
fansy1990
·
2014-04-15 16:00
machine learning - 梯度下降(bgd\
sgd
)
http://blog.csdn.net/pipisorry/article/details/23692455问题训练数据的格式如下:x1,x2,x3,⋯,xn,y。所有的这些数据称为训练集,其中x称为feature,y称为target。现在又有一些数据:x1,x2,x3,⋯,xn,需要做的是根据这些x的值,推测出y的值。解决方法OverdeterminedEquations假设y是x的线性函数(
pipisorry
·
2014-04-14 17:00
learning
machine
随机梯度下降
最优解
Python实现
批梯度下降
随机梯度下降
(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,
随机梯度下降
和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。
pipisorry
·
2014-04-12 20:00
java
batch gradient descent(批量梯度下降) 和 stochastic gradient descent(
随机梯度下降
)
随机梯度下降
是一种对参数随着样本训练,一个一个的及时update的方式。常用于大规模训练集,当往往容易收敛到局部最优解。
pipisorry
·
2014-04-12 16:00
batch
对
随机梯度下降
的一些使用心得
1:对于
随机梯度下降
SGD
可能大家都比较了解,也很熟悉,说起来也很简单,在使用中我们一般用的是带minibatch的
SGD
。
silence1214
·
2014-03-27 09:00
对优化算法的一些感想
:今天早上阅读了onoptimizationmethodsfordeeplearning这篇paper,是andrewNG组的博士的一篇paper,这篇paper介绍了L-BFGS,CG(共轭梯度)和
SGD
silence1214
·
2014-03-19 11:00
批量梯度下降和
随机梯度下降
matlab 实现
文章出处:【MachineLearning实验1】batchgradientdescent(批量梯度下降)和stochasticgradientdescent(
随机梯度下降
)http://blog.csdn.net
Kevein111
·
2014-03-16 22:16
机器学习
批量梯度下降和
随机梯度下降
matlab 实现
文章出处:【MachineLearning实验1】batchgradientdescent(批量梯度下降)和stochasticgradientdescent(
随机梯度下降
)http://blog.csdn.net
carrierlxksuper
·
2014-03-16 22:00
matlab
learning
machine
批量梯度下降
随机梯度下降
利用In-Database Analytics技术在大规模数据上实现机器学习的
SGD
算法
随着应用数据的增长,在大规模数据集上进行统计分析和机器学习越来越成为一个巨大的挑战。目前,适用于统计分析/机器学习的语言/库有很多,如专为数据分析用途而设计的R语言,Python语言的机器学习库Scikits,支持分布式环境扩展的有基于Map-Reduce实现的Mahout,以及分布式内存计算框架Spark上的机器学习库MLlib等等。目前Spark框架也推出了R语言的接口SprakR。但是,本文
梁堰波 徐伟辰
·
2014-03-14 00:00
梯度、梯度下降,
随机梯度下降
申明:本文非笔者原创,原文转载自:http://www.cnblogs.com/549294286/archive/2012/12/13/2817204.html一、梯度gradienthttp://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6在标量场f中的一点处存在一个矢量G,该矢量方向为f在该点处变化率最大的方向,其模也等于这个最大变化率的数值,则矢量G称为
ChenLee_1
·
2014-03-12 15:26
CV相关
梯度、梯度下降,
随机梯度下降
申明:本文非笔者原创,原文转载自:http://www.cnblogs.com/549294286/archive/2012/12/13/2817204.html一、梯度gradienthttp://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6在标量场f中的一点处存在一个矢量G,该矢量方向为f在该点处变化率最大的方向,其模也等于这个最大变化率的数值,则矢量G称为
carson2005
·
2014-03-12 15:00
Digression:The perceptron learning algorithm(感知机学习算法)
Theperceptronlearningalgorithm离散:(感知机学习算法)本章主要讲解感知机算法:1.感知机算法的假设函数2.感知机算法的损失函数含说明,收敛性的证明3.感知机学习算法的参数更新
SGD
4
lch614730
·
2013-12-09 16:00
算法
learning
machine
Perceptron
感知机算法
感知机算法收敛性证明
mahout所实现的算法
cwiki.apache.org/confluence/display/MAHOUT/Algorithms列出mahout所实现或正在实现的一些算法ClassificationLogisticRegression(
SGD
拖鞋崽
·
2013-12-08 02:35
mahout
实现算法
mahout
mahout所实现的算法
cwiki.apache.org/confluence/display/MAHOUT/Algorithms列出mahout所实现或正在实现的一些算法ClassificationLogisticRegression(
SGD
拖鞋崽
·
2013-12-08 02:35
Mahout
实现算法
[zz]
随机梯度下降
(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比 (Understand completely
http://blog.csdn.net/lilyth_lilyth/article/details/8973972
随机梯度下降
是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本
杰
·
2013-12-06 12:00
mahout中的org.apache.mahout.classifier.
sgd
Packageorg.apache.mahout.classifier.
sgd
一,接口概要1,InterfaceGradientProvidestheabilitytoinjectagradientintotheSGDlogisticregresion.TypicalusesofthisaretousearankingscoresuchasAUCinsteadofanormallossfuncti
u010282707
·
2013-12-05 16:00
随机梯度下降
法
一、从MultinomialLogistic模型说起1、MultinomialLogistic令为维输入向量;为输出label;(一共k类);为模型参数向量;MultinomialLogistic模型是指下面这种形式:其中:例如:时,输出label为0和1,有:2、MaximumLikelihoodEstimateandMaximumaPosterioriEstimate(1)、MaximumLi
diemeng1119
·
2013-11-11 18:00
batch gradient descent(批量梯度下降) 和 stochastic gradient descent(
随机梯度下降
)
随机梯度下降
是一种对参数随着样本训练,一个一个的及时update的方式。常用于大规模训练集,当往往容易收敛到局部最优解。
yueyedeai
·
2013-11-11 17:00
机器学习
Mahout 算法
一、分类算法(一)Logistic 回归(
SGD
)(二)Bayesian (三)SVM(四)Perceptron 和Winnow(五)神经网络(六)随机森林(
yueyedeai
·
2013-11-08 16:00
机器学习
Mahout 算法
一、分类算法 (一)Logistic 回归(
SGD
) (二)Bayes
thd52java
·
2013-11-08 16:00
Mahout
使用
SGD
(Stochastic Gradient Descent)进行大规模机器学习
使用
SGD
(StochasticGradientDescent)进行大规模机器学习博客分类: MachineLearningsgdmachinelearninglarge-scale 使用
pi9nc
·
2013-10-01 10:00
Deep Learning(Logistic Regression)学习之MNIST C++实现
1、这是75%完成度的
SGD
代码主要的程序在八月中旬基本完成了,后边忙别的事情,实在懒得再仔细写了,目前的代码是75%完成度的,已知bug和可以改进的地方有:1、在多次进行下降后,参数矩阵可能变成NaN
puretech_
·
2013-10-01 09:00
deep
learning
Regression
Logistic
MNIST
编译avPlayer过程中遇到的问题
2:找不到“libboost_system-vc100-mt-
sgd
-1_54.lib”,本人在自己编译的boost中的确找不到这个lib,但是我找到了类似的”libboost_system-vc100
jia_zhengshen
·
2013-08-24 12:00
solution to the complier error "cannot open file 'libboost_thread-vcxx-mt-
sgd
-xx.lib'"
solutiontothecompliererror"cannotopenfile'libboost_thread-vcxx-mt-
sgd
-xx.lib'"Youneedcompileboostandaddlibspathinprojectormakefile.Compileboostrun
程序描绘人生
·
2013-08-20 15:00
Mahout学习笔记-分类算法之Decision Forest - 潘的博客 - 博客园
根据最近的MahoutWiki,Mahout实现的分类算法有:
随机梯度下降
(
SGD
),贝叶斯分类,OnlinePassiveAggressive,HMM和决策森林(随机森林)。
·
2013-08-19 00:00
数据挖掘
Mahout
tech
梯度、梯度下降法、
随机梯度下降
法
一、梯度gradient在标量场f中的一点处存在一个矢量G,该矢量方向为f在该点处变化率最大的方向,其模也等于这个最大变化率的数值,则矢量G称为标量场f的梯度。在向量微积分中,标量场的梯度是一个向量场。标量场中某一点上的梯度指向标量场增长最快的方向,梯度的长度是这个最大的变化率。更严格的说,从欧氏空间Rn到R的函数的梯度是在Rn某一点最佳的线性近似。在这个意义上,梯度是雅戈比矩阵的一个特殊情况。在
jirongzi_cs2011
·
2013-07-29 15:00
优化
机器学习
梯度下降法
随机梯度下降
(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,
随机梯度下降
和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。
lilyth_lilyth
·
2013-05-25 21:00
迭代
梯度下降
最优化
使用
SGD
(Stochastic Gradient Descent)进行大规模机器学习
1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测值是我们选择从一函数族F中选择一个以w为参数的函数的到的预测结果。我们的目标是寻找这样的函数,能够在训练集中最小化平均损失函数由于我们不知道数据的真实分布,所以我们通常使用来代替经验风险用来衡量测试集合的效果。期望风险E(f)描
denghp83
·
2013-05-23 12:29
深度学习
NMF(非负矩阵分解)的
SGD
(
随机梯度下降
)实现
NMF把一个矩阵分解为两个矩阵的乘积,可以用来解决很多问题,例如:用户聚类、item聚类、预测(补全)用户对item的评分、个性化推荐等问题。NMF的过程可以转化为最小化损失函数(即误差函数)的过程,其实整个问题也就是一个最优化的问题。详细实现过程如下:(其中,输入矩阵很多时候会比较稀疏,即很多元素都是缺失项,故数据存储采用的是libsvm的格式,这个类在此忽略)
zangwenyang
·
2013-05-22 06:00
实现
NMF(非负矩阵分解)的
SGD
(
随机梯度下降
)实现
NMF把一个矩阵分解为两个矩阵的乘积,可以用来解决很多问题,例如:用户聚类、item聚类、预测(补全)用户对item的评分、个性化推荐等问题。NMF的过程可以转化为最小化损失函数(即误差函数)的过程,其实整个问题也就是一个最优化的问题。详细实现过程如下:(其中,输入矩阵很多时候会比较稀疏,即很多元素都是缺失项,故数据存储采用的是libsvm的格式,这个类在此忽略)packageNMF_danji;
lilyth_lilyth
·
2013-05-22 00:00
矩阵分解
SGD
最优化
NMF
Just Works的力量——Google科学家Jeff Dean斯坦福大学演讲的启示
MapReduce、BigTable等系统的创造者JeffDean通过对资源共享及其带来的响应时间波动问题、异步分布式
随机梯度下降
算法及其应用这两块主要内容的介绍,JeffDean深入展示了通用、简洁、
程序员编辑部
·
2013-05-16 15:20
随机梯度下降
(Stochastic Gradient Descend,
SGD
)算法在大规模数据机器学习问题的使用
参考去年以来large-scalebased的文章,发现
SGD
在参数获取过程中大量被使用,已经成为工程化的基本处理流程之一。
且歌且行
·
2013-04-29 14:55
机器学习
牛顿法、梯度下降法、
随机梯度下降
法、共轭梯度法
梯度:函数f(x)在某一点的梯度指向最大化f(x)的方向目标:f(x)=E(x)^2=0;牛顿法:X(i+1)=X(i)-f(x)/f`(x);梯度下降法:X(i+1)=X(i)-r*f`(x);
随机梯度下降
法
kensun0
·
2013-04-28 17:00
boost库之error LINK1104
sgd
(转)
如果BOOST库也是直接调用bjam不带参数默认编译出来的,那么在使用时就会出现类似如下错误: libboost_system-vc71-mt-
sgd
-1_46_1.lib等包含“
sgd
”的LIB无法找到的错误
c353901475
·
2013-03-08 09:00
Just Works的力量——Google科学家Jeff Dean斯坦福大学演讲的启示
通过对资源共享及其带来的响应时间波动问题、异步分布式
随机梯度下降
算法及其应用这两块主要内容的介绍,Jeff Dean深入展示了通用、简洁、Just Works系统的强大魅力。
randomnet
·
2013-02-27 09:00
mahout中的org.apache.mahout.clas…
Packageorg.apache.mahout.classifier.
sgd
一,接口概要1,InterfaceGradientProvidestheabilitytoinjectagradientintotheSGDlogisticregresion.TypicalusesofthisaretousearankingscoresuchasAUCinsteadofanormallossfuncti
nuoline
·
2013-02-25 18:00
boost 安装
/www.boost.org/users/download/运行bootstrap.bat生成bjam.exe(1.52版本,其它略有不同)编译命令:编译时用到了两个命令,用第一个命令编译时没有生成带
sgd
nocml
·
2012-12-27 14:00
Boost库的命名规则及静态编译命令。
在做CEGUI+OGRE结合时,提示用到了“libboost_thread-vc80-mt-
sgd
-1_42.lib”这个库。从boost官网上下载编译之后发现仍然找不到该库。
凭谁问
·
2012-12-05 10:27
CEGUI
Boost库的命名规则及静态编译命令。
在做CEGUI+OGRE结合时,提示用到了“libboost_thread-vc80-mt-
sgd
-1_42.lib”这个库。从boost官网上下载编译之后发现仍然找不到该库。
debugconsole
·
2012-12-05 10:00
Boost 连接库的命名含义
文件名含义编译使用该库的程序时应使用的编译选项libboost_regex-vc90-mt-
sgd
-1_38.lib静态库,多线程,调试版本 使用静态调试版本C运行时库(LIBCMTD.LIB和LI
YanLei
·
2012-08-28 07:00
Machine Learning系列实验--感知机学习
感知机时二分类的线性分类模型,其目的就是寻找通过训练将实例划分为正负两类的分离超平面,其采用的策略是根据现有的超平面和输出值来识别出误分类点,也就是说y*(w*t+b)<=0,并采用
随机梯度下降
的方法不断修改参数
daweibalong
·
2012-08-28 00:00
机器学习
感知机学习
Collaborative filtering with GraphChi
到目前为止,已经支持ALS(最小二乘法)、
SGD
(
随机梯度下降
)、bias-
SGD
(带偏置的
随机梯度下降
)、SVD++、NMF(非负矩阵分解)、SVD(restartedLanczos、onesidedLanczos
lzt1983
·
2012-08-27 19:00
validation
File
input
download
Matrix
Training
Machine Learning系列实验--梯度下降(批量梯度,随机梯度)
看了3集斯坦福大学的机器学习课程,很有意思,开始着手回顾以及一些代码的实现,这次做的是批量梯度下降以及
随机梯度下降
。
daweibalong
·
2012-08-23 18:00
机器学习
批量梯度下降-batch
使用
SGD
(Stochastic Gradient Descent)进行大规模机器学习
使用
SGD
(StochasticGradientDescent)进行大规模机器学习1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出
fuliang
·
2012-05-11 23:00
learning
machine
large-scale
SGD
使用
SGD
(Stochastic Gradient Descent)进行大规模机器学习
阅读更多使用
SGD
(StochasticGradientDescent)进行大规模机器学习1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y
fuliang
·
2012-05-11 23:00
sgd
machine
learning
large-scale
使用
SGD
(Stochastic Gradient Descent)进行大规模机器学习
使用
SGD
(StochasticGradientDescent)进行大规模机器学习1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出
fuliang
·
2012-05-11 23:00
learning
machine
SGD
large-scale
上一页
67
68
69
70
71
72
73
74
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他