E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Descent
TextView文字为什么不能居中
而FontMetrics里面有:top,bottom,ascent,
descent
,lead他们的区别是:为了说明,这里引用辅助线baseline=0,画文字的y坐标top:文字的最顶端离baseline
zi413293813
·
2014-03-03 18:00
Canvas drawText 不显示
publicintgetFontHeight(){ FontMetricsfm=mPaint.getFontMetrics(); return(int)(fm.
descent
-fm.ascent
grushy
·
2014-02-18 16:00
[zz]随机梯度下降(Stochastic gradient
descent
)和 批量梯度下降(Batch gradient
descent
)的公式对比、实现对比 (Understand completely
http://blog.csdn.net/lilyth_lilyth/article/details/8973972随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降(batchgradientdescent),迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10
杰
·
2013-12-06 12:00
androd之绘制文本(FontMetrics)
FontMetrics对象它以四个基本坐标为基准,分别为:・FontMetrics.top・FontMetrics.ascent・FontMetrics.
descent
・FontMetrics.bottom
fengyee_zju
·
2013-11-27 22:00
batch gradient
descent
(批量梯度下降) 和 stochastic gradient
descent
(随机梯度下降)
批量梯度下降是一种对参数的update进行累积,然后批量更新的一种方式。用于在已知整个训练集时的一种训练方式,但对于大规模数据并不合适。随机梯度下降是一种对参数随着样本训练,一个一个的及时update的方式。常用于大规模训练集,当往往容易收敛到局部最优解。详细参见:AndrewNg的MachineLearning的课件(见参考1)可能存在的改进1)样本可靠度,特征完备性的验证 例如可能存在一些
yueyedeai
·
2013-11-11 17:00
机器学习
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machinelearning公开课,在
zhoubl668
·
2013-11-01 11:00
回归(regression)、梯度下降(gradient
descent
)
回归与梯度下降: 回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locallyweighted回归,logistic回归,等等,这个将在后面去讲。 用一个很简单的例子来说明回归,这个例子来自很多的地方,也在很多的opensource的软件中看到,比如说weka。大概就是,做一个
july_2
·
2013-10-29 17:00
第三讲之 Logistic Regression(method:Gradient
descent
and Newton)
第三讲之LogisticRegression(method:GradientdescentandNewton)
lch614730
·
2013-10-25 16:00
Newton
Regression
Logistic
多分类
自己对gradient的误解-----理解gradient descend算法
www.cnblogs.com/LeftNotEasy/archive/2010/12/05/mathmatic_in_machine_learning_1_regression_and_gradient_
descent
.html
xyqzki
·
2013-10-23 22:00
逻辑回归 与梯度算法
逻辑回归(logisticregression)1. sigmoid 函数:梯度上升(Gradient Ascent)与 梯度下降(Gradient
Descent
): 2.
fennvde007
·
2013-10-15 09:00
算法
最速下降法/steepest
descent
,牛顿法/newton,共轭方向法/conjugate direction,共轭梯度法/conjugate gradient 及其他
在最优化的领域中,这“法”那“法”无穷多,而且还“长得像”——名字相似的多,有时让人觉得很迷惑。在自变量为一维的情况下,也就是自变量可以视为一个标量,此时,一个实数就可以代表它了,这个时候,如果要改变自变量的值,则其要么减小,要么增加,也就是“非左即右“,所以,说到“自变量在某个方向上移动”这个概念的时候,它并不是十分明显;而在自变量为n(n≥2)维的情况下,这个概念就有用了起来:假设自变量X为3
既然如此
·
2013-10-12 10:13
学习
深度学习
最速下降法
牛顿法
共轭方向法
共轭梯度法
最速下降法/steepest
descent
,牛顿法/newton,共轭方向法/conjugate direction,共轭梯度法/conjugate gradient 及其他
在最优化的领域中,这“法”那“法”无穷多,而且还“长得像”——名字相似的多,有时让人觉得很迷惑。在自变量为一维的情况下,也就是自变量可以视为一个标量,此时,一个实数就可以代表它了,这个时候,如果要改变自变量的值,则其要么减小,要么增加,也就是“非左即右“,所以,说到“自变量在某个方向上移动”这个概念的时候,它并不是十分明显;而在自变量为n(n≥2)维的情况下,这个概念就有用了起来:假设自变量X为3
yeyang911
·
2013-10-12 10:00
牛顿法
共轭梯度法
最速下降法
共轭方向法
第一讲.Liner_Regression and Gradient_
Descent
(Rui Xia) 单变量线性回归及梯度下降
本栏目(Machinelearning)包括单参数的线性回归、多参数的线性回归、OctaveTutorial、LogisticRegression、Regularization、神经网络、机器学习系统设计、SVM(SupportVectorMachines支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machinelearning中Andrew老师
lch614730
·
2013-10-05 19:00
算法
数据
机器学习
预测
learning
machine
基于baseline、svd和stochastic gradient
descent
的个性化推荐系统
文章主要介绍的是koren08年发的论文[1], 2.3部分内容(其余部分会陆续补充上来)。koren论文中用到netflix数据集,过于大,在普通的pc机上运行时间很长很长。考虑到写文章目地主要是已介绍总结方法为主,所以采用Movielens数据集。变量介绍部分变量介绍可以参看《基于baseline和stochasticgradientdescent的个性化推荐系统》文章中,将介绍两种方法实现的
wxx634897019
·
2013-10-04 18:00
推荐系统
SVD
SGD
基于baseline和stochastic gradient
descent
的个性化推荐系统
文章主要介绍的是koren08年发的论文[1], 2.1部分内容(其余部分会陆续补充上来)。 koren论文中用到netflix数据集,过于大,在普通的pc机上运行时间很长很长。考虑到写文章目地主要是已介绍总结方法为主,所以采用Movielens数据集。要用到的变量介绍:Baselineestimates objectfunction:梯度变化(利用stochasticgradientdesc
wxx634897019
·
2013-10-04 18:00
推荐系统
SVD
SGD
使用SGD(Stochastic Gradient
Descent
)进行大规模机器学习
使用SGD(StochasticGradientDescent)进行大规模机器学习博客分类: MachineLearningsgdmachinelearninglarge-scale 使用SGD(StochasticGradientDescent)进行大规模机器学习 1基于梯度下降的学习 对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。
pi9nc
·
2013-10-01 10:00
回归(regression)、梯度下降(gradient
descent
)
www.cnblogs.com/LeftNotEasy/archive/2010/12/05/mathmatic_in_machine_learning_1_regression_and_gradient_
descent
.html
u010064842
·
2013-09-30 16:00
线性回归
梯度下降
回归(regression)、梯度下降(gradient
descent
)
这两天在看机器学习实战这本书时,关于Logistic回归章节中的梯度上升法,有点云里雾里的感觉,特别是那个python代码,不知道怎么来的。直到看了下面这篇文章,才有点感觉。http://www.cnblogs.com/LeftNotEasy/archive/2010/12/05/mathmatic_in_machine_learning_1_regression_and_gradient_
fanshadoop
·
2013-08-28 09:00
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machinelearning公开课,在
guixunlong
·
2013-08-26 14:00
Module for Steepest
Descent
or Gradient Method
GradientandNewton'sMethods Nowweturntotheminimizationofafunction of n variables,where andthepartialderivativesof areaccessible. SteepestDescentorGradientMethodDefinition(Gradient). Let b
lcj_cjfykx
·
2013-08-06 04:00
Android]Android字体高度的研究
Descent
:字符底部到baseLine的距离。Leading:字符行间距。 http://blog.csdn.net/a_large_swan/article/details/73399
tw19811220
·
2013-06-16 20:00
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
转自:http://www.cnblogs.com/LeftNotEasy作者: LeftNotEasy回归与梯度下降: 回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locallyweighted回归,logistic回归,等等,这个将在后面去讲。 用一个很简单的例子来说明回
lucky_greenegg
·
2013-06-12 20:00
数学
机器学习
随机梯度下降(Stochastic gradient
descent
)和 批量梯度下降(Batch gradient
descent
)的公式对比、实现对比
梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的记录条数,j是参数的个数。1、批量梯度下降的求解思路
lilyth_lilyth
·
2013-05-25 21:00
迭代
梯度下降
最优化
使用SGD(Stochastic Gradient
Descent
)进行大规模机器学习
1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测值是我们选择从一函数族F中选择一个以w为参数的函数的到的预测结果。我们的目标是寻找这样的函数,能够在训练集中最小化平均损失函数由于我们不知道数据的真实分布,所以我们通常使用来代替经验风险用来衡量测试集合的效果。期望风险E(f)描
denghp83
·
2013-05-23 12:29
深度学习
最速下降法/steepest
descent
,牛顿法/newton,共轭方向法/conjugate direction,共轭梯度法/conjugate gradient 及其他
转载须注明出处:http://www.codelast.com/ 在最优化的领域中,这“法”那“法”无穷多,而且还“长得像”——名字相似的多,有时让人觉得很迷惑。在自变量为一维的情况下,也就是自变量可以视为一个标量,此时,一个实数就可以代表它了,这个时候,如果要改变自变量的值,则其要么减小,要么增加,也就是“非左即右“,所以,说到“自变量在某个方向上移动”这个概念的时候,它并不是十分明显;而在自变
yangqiuying
·
2013-05-03 15:00
Open WATCOM指南
很多游戏包括DOOM,
Descent
,DukeNukem
Force武装卫队
·
2013-05-01 00:00
文字 单元格居中显示 paint ascent
descent
baseline 文字显示 尺寸 格式
基线(baeseline),坡顶(ascenter),坡底(descenter)上坡度(ascent),下坡度(
descent
)行间距(leading):坡底到下一行坡顶的距离字体的高度=上坡度+下坡度
hyongbai
·
2013-04-12 16:00
paint
androd之绘制文本(FontMetrics)
FontMetrics对象它以四个基本坐标为基准,分别为:・FontMetrics.top・FontMetrics.ascent・FontMetrics.
descent
・FontMet
grushy
·
2013-04-12 14:00
文本编程
GetTextMetricsTEXTMETRICStructuretmHeightSpecifiestheheight(ascent+
descent
czlilove
·
2013-03-28 18:00
androd之绘制文本(FontMetrics)
FontMetrics对象它以四个基本坐标为基准,分别为:・FontMetrics.top・FontMetrics.ascent・FontMetrics.
descent
・FontMetrics.bottom
cauchy8389
·
2013-03-01 09:00
android
好记性不如烂笔杆------Android开发--android绘制文本
FontMetrics对象它以四个基本坐标为基准,分别为:・FontMetrics.top・FontMetrics.ascent・FontMetrics.
descent
・FontMetrics.bottom
田心心
·
2012-12-13 09:00
10行代码搞定表达式解析【花了一个小时翻译的】
parsing-expression-by-precedence-climbing/ 摘自 Eli Bendersky’s website 就此问题,我之前讨论过使用递归下降解析器(recursive
descent
把酒泯恩仇
·
2012-12-12 18:00
算法
python
NMF算法简介及python实现(gradient
descent
)
原文链接:http://www.albertauyeung.com/mf.php基本原理NMF,非负矩阵分解,它的目标很明确,就是将大矩阵分解成两个小矩阵,使得这两个小矩阵相乘后能够还原到大矩阵。而非负表示分解的矩阵都不包含负值。从应用的角度来说,矩阵分解能够用于发现两种实体间的潜在特征,一个最常见的应用就是协同过滤中的预测打分值,而从协同过滤的这个角度来说,非负也很容易理解:打分都是正的,不会出
csy463168656
·
2012-11-06 10:38
python
算法
机器学习
Gradient
Descent
(梯度下降法)(两例对应两牛文均用该法求解目标函数)
http://en.wikipedia.org/wiki/Gradient_
descent
http://zh.wikipedia.org/wiki/%E6%9C%80%E9%80%9F%E4%B8%8B
杰
·
2012-10-19 13:00
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
回归与梯度下降: 回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locallyweighted回归,logistic回归,等等,这个将在后面去讲。 用一个很简单的例子来说明回归,这个例子来自很多的地方,也在很多的opensource的软件中看到,比如说weka。大概就是,做一个
masikkk
·
2012-09-24 13:00
算法
function
语言
2010
Training
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machinelearning公开课,在
wolenski
·
2012-09-16 14:00
基于Zlib实现的从ZIP文件中提取文件数据
其实自己最近闲暇时分用MFC写了个『
Descent
:Journ
Sozell
·
2012-08-01 16:00
api
File
lua
buffer
RadioButton
archive
享元模式(Flyweight Pattern)
baike.baidu.com/view/6143765.htmsymbol='A'; $this->height=100; $this->width=120; $this->ascent=70; $this->
descent
dizzthxl
·
2012-06-14 10:00
回归(regression)、梯度下降(gradient
descent
)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machinelearning公开课,在
freeboy1015
·
2012-06-14 09:00
算法
function
分布式计算
语言
任务
Training
Android字符串进阶:字体属性及测量(FontMetrics)
(一)字体的几个参数,以Android API文档定义为准,见下图 要点如下:1.基准点是baseline2.Ascent是baseline之上至字符最高处的距离3.
Descent
是baseline之下至字符最低处的距离
lideguo1979
·
2012-06-03 02:00
android
String
测试
Class
文档
float
Android字符串进阶之三:字体属性及测量(FontMetrics)
(一)字体的几个参数,以AndroidAPI文档定义为准,见下图要点如下:1.基准点是baseline2.Ascent是baseline之上至字符最高处的距离3.
Descent
是baseline之下至字符最低处的距离
小新专栏
·
2012-05-21 20:05
android
paint
FontMetrics
textSize
Android字符串进阶之三:字体属性及测量(FontMetrics)
(一)字体的几个参数,以AndroidAPI文档定义为准,见下图要点如下:1.基准点是baseline2.Ascent是baseline之上至字符最高处的距离3.
Descent
是baseline之下至字符最低处的距离
小新专栏
·
2012-05-21 20:05
android
Paint
FontMetrics
Android
机器学习中的数学(1)-回归(regression)、梯度下降(gradient
descent
)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machinelearning公开课,在
chenbang110
·
2012-05-20 13:00
使用SGD(Stochastic Gradient
Descent
)进行大规模机器学习
使用SGD(StochasticGradientDescent)进行大规模机器学习1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测值是我们选择从一函数族F中选择一个以w为参数的函数的到的预测结果。我们的目标是寻找这样的函数,能够在训练集中最小化平均损失函数由于我
fuliang
·
2012-05-11 23:00
learning
machine
large-scale
SGD
使用SGD(Stochastic Gradient
Descent
)进行大规模机器学习
阅读更多使用SGD(StochasticGradientDescent)进行大规模机器学习1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测值是我们选择从一函数族F中选择一个以w为参数的函数的到的预测结果。我们的目标是寻找这样的函数,能够在训练集中最小化平均损失函数由于我们不知
fuliang
·
2012-05-11 23:00
sgd
machine
learning
large-scale
使用SGD(Stochastic Gradient
Descent
)进行大规模机器学习
使用SGD(StochasticGradientDescent)进行大规模机器学习1基于梯度下降的学习对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测值是我们选择从一函数族F中选择一个以w为参数的函数的到的预测结果。我们的目标是寻找这样的函数,能够在训练集中最小化平均损失函数由于我
fuliang
·
2012-05-11 23:00
learning
machine
SGD
large-scale
梯度下降算法(Gradient
descent
)
梯度下降算法是一种求局部最优解的方法,在wikipedia上对它做了详细的说明,这里我只是把自己感兴趣的一些地方总结一下:对于F(x),在a点的梯度是F(x)增长最快的方向,那么它的相反方向则是该点下降最快的方向,我们有如下结论:其中,v是一个大于0的数,于是我们有F(b)>=F(a),那么当我们不断地迭代下去,最终结果将收敛于一个局部最小值。我们举一个简单的例子:利用梯度下降算法求函数f(x)=
whosemario
·
2012-05-09 16:32
Programming
Pearls
算法
algorithm
python
梯度下降算法(Gradient
descent
)
梯度下降算法是一种求局部最优解的方法,在wikipedia上对它做了详细的说明,这里我只是把自己感兴趣的一些地方总结一下:对于F(x),在a点的梯度是F(x)增长最快的方向,那么它的相反方向则是该点下降最快的方向,我们有如下结论:其中,v是一个大于0的数,于是我们有F(b)>=F(a),那么当我们不断地迭代下去,最终结果将收敛于一个局部最小值。我们举一个简单的例子:利用梯度下降算法求函数f(x)=
whosemario
·
2012-05-09 16:00
Algorithm
算法
python
Android自定义view-文本自动换行
canvas) { FontMetrics fm = mPaint.getFontMetrics(); float baseline = fm.
descent
1846396994
·
2012-04-25 10:00
android
[Android]Android字体高度的研究
Descent
:字符底部到baseLine的距离。Leading:字符行间距。 Java代码 public class TestOnDraw extends Activity {
a_large_swan
·
2012-03-10 15:00
java
android
Class
float
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他