E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习公开课
Logistic回归总结
洞庭之子-Bing(2013年11月)PDF下载地址:http://download.csdn.net/detail/lewsn2008/65474631.引言看了Stanford的AndrewNg老师的
机器学习公开课
中关于
whiterbear
·
2016-04-29 20:00
python
Logistic回归
numpy
随机梯度下降和批量梯度下降的简单代码实现
最近刚刚开始看斯坦福的
机器学习公开课
,第一堂课讲到了梯度下降,然后就简单实现了一下。本人学渣一枚,如有错误,敬请指出。
Alex267
·
2016-04-16 21:39
机器学习
MachineLearning—Linear Regression(二)
本篇博文接上一篇线性回归部分,主要讲解记录线性回归的理论推导,资料主要参考Andrew的
机器学习公开课
的讲义notes。
qq_14959801
·
2016-03-28 20:00
机器学习
learning
machine
线性回归
Regression
Linear
算法原理推导
Stanford 机器学习-Regularization(Week 3)-代码
NG
机器学习公开课
7-Regularization所有的代码整个到一个.m文件里了。
lzj5451896
·
2016-03-24 21:00
机器学习
斯坦福
机器学习公开课
http://blog.csdn.net/abcjennifer/article/category/1173803/3
noryes
·
2016-03-24 00:00
机器学习基础-线性回归之梯度下降
(以下内容来自coursera中斯坦福大学
机器学习公开课
即相关链接,附上公开课链接:https://www.coursera.org/learn/machine-learning/首先是假设模型(hypothesisfunction
Hyuuga_Neji
·
2016-03-12 01:18
机器学习
关于职业规划的思考
研一的时候对机器学习、大数据感兴趣,因此自学了机器学习,看了吴恩达老师的
机器学习公开课
,虽然和自己的研究方向
gshgsh1228
·
2016-03-06 14:00
Programming Exercise5:Regularized Linera Regression and Bias v.s Variance
大家好,本文主要和大家分享coursera网站上斯坦福大学
机器学习公开课
(吴文达老师)第六周ReguirizedLineraRegressionandBiasv.sVariance的课后编程题。
a1015553840
·
2016-03-01 21:00
programming
机器学习
r
斯坦福大学
exercise
吴文达
Regularized
Linera
斯坦福大学
机器学习公开课
, 梯度下降算法,随机梯度下降算法,最小二乘拟合法总结以及证明
部分语言参考了:http://blog.csdn.net/woxincd/article/details/7040944回归与梯度下降:回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locallyweighted回归,logistic回归,等等,这个将在后面去讲。用一个很简单的例子
qq_29133371
·
2016-03-01 17:00
机器学习
斯坦福大学
梯度下降算法
Week6:Advice for Applying Machine Learning课后习题解答
本文将主要解释coursera网站上斯坦福大学的
机器学习公开课
(吴文达老师)第六周AdviceforApplyingMachineLearning的课后习题的讲解,与同学们共同探讨学习。
Mac Jiang
·
2016-03-01 17:31
机器学习
斯坦福大学
week-6
课后习题
Mac
Jiang的机器学习专栏
Week6:Advice for Applying Machine Learning课后习题解答
本文将主要解释coursera网站上斯坦福大学的
机器学习公开课
(吴文达老师)第六周AdviceforApplyingMachineLearning的课后习题的讲解,与同学们共同探讨学习。
a1015553840
·
2016-03-01 17:00
机器学习
斯坦福大学
课后习题
week-6
Programing Exercise 4:Neural Networks Learning
本文讲的是coursera上斯坦福大学
机器学习公开课
(吴文达)课程第五周NeuralNetworks:learning的课后作业。
a1015553840
·
2016-02-29 19:00
机器学习
斯坦福大学
Networks
Neural
吴文达
神经网络在字符识别中的应用
Lear
14年7月总结
開始看AndrewNg
机器学习公开课
。初次
mengfanrong
·
2016-02-06 12:00
机器学习公开课
笔记(10):大规模机器学习
批梯度下降(BatchGradientDescent)以线性回归为例,用梯度下降算法进行参数更新的公式为$$\theta_j=\theta_j-\alpha\frac{1}{m}\sum\limits_{i=1}^{m}(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}$$可以看到每次参数更新一次,都需要将整个训练集扫描一遍,所以称为批梯度下降,这种更新方式对于参数集很大的集
python27
·
2016-01-26 16:00
关于我和机器学习
首次接触到机器学习是和一个朋友有关,这个是我在上海认识的一个群友,线下我们也见过面,四川大学的博士,现在在USA求学,当时他推荐了吴恩达的
机器学习公开课
。因为时差的关系,他偶尔出来冒个泡。
vs412237401
·
2016-01-25 13:00
python
机器学习
马拉松
李航
机器学习公开课
笔记(9):异常检测和推荐系统
异常检测(AnomalyDetection)基本假设:多数情况下数据点落入正常的取值范围,但是当异常行为发生时,数据点的取值落入正常取值范围之外(如图1所示)。所以可以利用高斯分布,计算行为发生的概率,如果是概率小于给定阈值,则认为发生了异常行为。基本过程是利用训练数据点建立模型$p(x)$,对于新的数据点$x_{new}$,如果$p(x_{new})n$(一般要求$m>10n$)的情况,而后者当
python27
·
2016-01-25 11:00
机器学习公开课
笔记(8):k-means聚类和PCA降维
K-Means算法非监督式学习对一组无标签的数据试图发现其内在的结构,主要用途包括:市场划分(MarketSegmentation)社交网络分析(SocialNetworkAnalysis)管理计算机集群(OrganizeComputerClusters)天文学数据分析(AstronomicalDataAnalysis)K-Means算法属于非监督式学习的一种,算法的输入是:训练数据集$\{x^{
python27
·
2016-01-20 21:00
系统学习机器学习之SVM(二)
blog.csdn.net/app_12062011/article/details/50385522的内容,与这里一样,但是,相对来说,这里介绍了整个原理及推到过程,由于当前项目用到SVM,自己最近也在看吴恩达的斯坦福大学
机器学习公开课
Eason.wxd
·
2016-01-18 14:49
机器学习
系统学习机器学习之SVM(二)
blog.csdn.net/app_12062011/article/details/50385522的内容,与这里一样,但是,相对来说,这里介绍了整个原理及推到过程,由于当前项目用到SVM,自己最近也在看吴恩达的斯坦福大学
机器学习公开课
App_12062011
·
2016-01-18 14:00
[Ng
机器学习公开课
1]机器学习概述
机器学习机器学习是一种新型的编程方法,目的在于教会机器自己处理信息,现在主要用在信息挖掘,无法编程的程序,推荐系统等等。Machinelearningisthefieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.总体来讲有有监督和无监督算法分类。有监督学习和无监督的分别在于我们有没有给算法提
陈琳楠
·
2016-01-16 22:00
机器学习
机器学习公开课
笔记(7):支持向量机
支持向量机(SupportVectorMachine,SVM)考虑logistic回归,对于$y=1$的数据,我们希望其$h_\theta(x)\approx1$,相应的$\theta^Tx\gg0$;对于$y=0$的数据,我们希望$h_\theta(x)\approx0$,相应的$\theta^Tx\ll0$。每个数据点的代价为:$$-\left[y\log(h_\theta(x))+(1-y)
python27
·
2016-01-13 22:00
logistic Regression
1.引言看了Stanford的AndrewNg老师的
机器学习公开课
中关于LogisticRegression的讲解,然后又看了《机器学习实战》中的LogisticRegression部分,写下此篇学习笔记总结一下
ivysister
·
2016-01-09 14:00
learning
machine
Regression
Logistic
机器学习公开课
笔记(6):应用机器学习的建议
应用机器学习的建议1.评估学习算法在实际中应用学习算法时,如何评估一个学习算法的好坏?进一步地,如果学习的算法的效果不太好,如何改进学习算法?例如,对于一个简单的线性拟合模型,改进算法效果的策略包括:采用更多的训练实例训练模型采用更小的特征集合增加额外的特征尝试高次项拟合($x_1^2$,$x_2^2$,$x_3^3$,$\ldots$)增加惩罚项系数$\lambda$减小惩罚项系数$\lambd
python27
·
2016-01-06 15:00
机器学习公开课
笔记(5):神经网络(Neural Network)——学习
这一章可能是AndrewNg讲得最不清楚的一章,为什么这么说呢?这一章主要讲后向传播(Backpropagration,BP)算法,Ng花了一大半的时间在讲如何计算误差项$\delta$,如何计算$\Delta$的矩阵,以及如何用Matlab去实现后向传播,然而最关键的问题——为什么要这么计算?前面计算的这些量到底代表着什么,Ng基本没有讲解,也没有给出数学的推导的例子。所以这次内容我不打算照着公
python27
·
2015-12-27 22:00
sklearn系列之----开山篇
基础的教学视频可以观看AndrewNG的
机器学习公开课
;在python包上,做基础的DL的最火的可能就是scikit-learn,也就是sklearn,我准备对这
GavinZhou_xd
·
2015-12-27 14:06
Digital
image/ML
sklearn系列之----开山篇
基础的教学视频可以观看AndrewNG的
机器学习公开课
;在python包上,做基础的DL的最火的可能就是scikit-learn,也就是sklearn,我准备对这
Gavin__Zhou
·
2015-12-27 14:00
机器学习
深度学习
sklearn
机器学习公开课
笔记(4):神经网络(Neural Network)——表示
动机(Motivation)对于非线性分类问题,如果用多元线性回归进行分类,需要构造许多高次项,导致特征特多学习参数过多,从而复杂度太高。神经网络(NeuralNetwork)一个简单的神经网络如下图所示,每一个圆圈表示一个神经元,每个神经元接收上一层神经元的输出作为其输入,同时其输出信号到下一层,其中每一层的第一个神经元称为biasunit,它是额外加入的其值为1,通常用+1表示,下图用虚线画出
python27
·
2015-12-23 22:00
机器学习公开课
笔记(3):Logistic回归
Logistic回归通常是二元分类器(也可以用于多元分类),例如以下的分类问题Email:spam/notspamTumor:Malignant/benign假设(Hypothesis):$$h_\theta(x)=g(\theta^Tx)$$$$g(z)=\frac{1}{1+e^{-z}}$$其中g(z)称为sigmoid函数,其函数图象如下图所示,可以看出预测值$y$的取值范围是(0,1),
python27
·
2015-12-21 23:00
机器学习公开课
笔记(2):多元线性回归
多元线性回归一元线性回归只有一个特征$x$,而多元线性回归可以有多个特征$x1,x2,\ldots,x_n$假设(Hypothesis):$h_\theta(x)=\theta^Tx=\theta_0x_0+\theta_1x_1+\ldots+\theta_nx_n$参数(Parameters):$\theta_0, \theta_1,\ldots,\theta_n$代价函数(Costfunct
python27
·
2015-12-16 10:00
机器学习公开课
笔记(1):机器学习简介及一元线性回归
初步介绍监督式学习:给定数据集并且知道其正确的输出应该是怎么样的,即有反馈(feedback),分为回归(Regressioin):map输入到连续的输出值。分类(Classification):map输出到离散的输出值。非监督式学习:给定数据集,并不知道其正确的输出是什么,没有反馈,分为聚类(Clustering):Examples:GoogleNews,ComputerClustering,M
python27
·
2015-12-07 11:00
机器学习工具安装(python)
最近在看MIT的
机器学习公开课
,打算动手写点代码。按照网上教程装了python,以及几个库。
anualday
·
2015-12-03 19:00
[置顶] 局部加权回归、最小二乘的概率解释、逻辑斯蒂回归、感知器算法——斯坦福ML公开课笔记3
转载请注明:http://blog.csdn.net/xinzhangyanxiang/article/details/9113681 最近在看Ng的
机器学习公开课
,Ng的讲法循循善诱,感觉提高了不少
·
2015-11-12 23:32
算法
《数学之美》之悟——学懂数学为何如此重要?
2013.9.15 在这周里,我逐渐养成了自己的良好习惯,每天至少看一小时文献,观看
机器学习公开课
视频,每晚离开实验室之前记录好一天的工作内容及进度
·
2015-11-12 12:47
数学
Andrew Ng
机器学习公开课
笔记 – Factor Analysis
网易公开课,第13,14课 notes,9 本质上因子分析是一种降维算法 参考,http://www.douban.com/note/225942377/,浅谈主成分分析和因子分析 把大量的原始变量,浓缩成少数几个因子变量 原始变量,代表浅层的表面现象,所以一定是很多和繁杂的 而因子变量,是代表深层的本质,因,是无法直接观察到的 所以因子分析,就是拨开现象发现本质的过程。。。很牛逼的感觉
·
2015-10-27 12:25
机器学习
Andrew Ng
机器学习公开课
笔记 -- Mixtures of Gaussians and the EM algorithm
网易公开课,第12,13课 notes,7a, 7b,8 从这章开始,介绍无监督的算法 对于无监督,当然首先想到k means, 最典型也最简单,有需要直接看7a的讲义 Mixtures of Gaussians 如果要理解Mixtures of Gaussians,那先回去复习一下Gaussians Discriminant Analysis,高斯判别分析 首先高斯判别分
·
2015-10-27 12:24
Algorithm
Andrew Ng
机器学习公开课
笔记 -- Regularization and Model Selection
网易公开课,第10,11课 notes,http://cs229.stanford.edu/notes/cs229-notes5.pdf Model Selection 首先需要解决的问题是,模型选择问题,如何来平衡bais和variance来自动选择模型?比如对于多项式分类,如何决定阶数k,对于locally weighted regression如何决定窗口大小,对于SVM
·
2015-10-27 12:23
select
Andrew Ng
机器学习公开课
笔记 -- 支持向量机
网易公开课,第6,7,8课 notes,http://cs229.stanford.edu/notes/cs229-notes3.pdf SVM-支持向量机算法概述, 这篇讲的挺好,可以参考 先继续前面对线性分类器的讨论, 通过机器学习算法找到的线性分类的线,不是唯一的,对于一个训练集一般都会有很多线可以把两类分开,这里的问题是我们需要找到best的那条线 首先需要定义Mar
·
2015-10-27 12:21
机器学习
Andrew Ng
机器学习公开课
笔记 -- 朴素贝叶斯算法
网易公开课,第5,6课 notes,http://cs229.stanford.edu/notes/cs229-notes2.pdf 前面讨论了高斯判别分析,是一种生成学习算法,其中x是连续值 这里要介绍第二种生成学习算法,Naive Bayes算法,其中x是离散值的向量 这种算法常用于文本分类,比如分类垃圾邮件 首先,如何表示一个文本,即x? 以上面这种向量来表示,字典中的词是否在该文本
·
2015-10-27 12:21
机器学习
Andrew Ng
机器学习公开课
笔记 -- Generative Learning algorithms
网易公开课,第5课 notes,http://cs229.stanford.edu/notes/cs229-notes2.pdf 学习算法有两种,一种是前面一直看到的,直接对p(y|x; θ)进行建模,比如前面说的线性回归或逻辑回归,这种称为判别学习算法(discriminative learning algorithms) 另外一种思路,就是这里要谈的,称为生成学习算法(generativ
·
2015-10-27 12:20
algorithms
Andrew Ng
机器学习公开课
笔记 -- 线性回归和梯度下降
网易公开课,监督学习应用.梯度下降 notes,http://cs229.stanford.edu/notes/cs229-notes1.pdf 线性回归(Linear Regression) 先看个例子,比如,想用面积和卧室个数来预测房屋的价格 训练集如下 首先,我们假设为线性模型,那么hypotheses定义为 , 其中x1,x2表示面积和#bedrooms两个featu
·
2015-10-27 12:20
机器学习
Andrew Ng
机器学习公开课
笔记 -- Generalized Linear Models
网易公开课,第4课 notes,http://cs229.stanford.edu/notes/cs229-notes1.pdf 前面介绍一个线性回归问题,符合高斯分布 一个分类问题,logstic回归,符合伯努利分布 也发现他们有些相似的地方,其实这些方法都是一个更广泛的模型族的特例,这个模型族称为,广义线性模型(Generalized Linear Models,GLMs) The e
·
2015-10-27 12:20
Model
Andrew Ng
机器学习公开课
笔记 -- Logistic Regression
网易公开课,第3,4课 notes,http://cs229.stanford.edu/notes/cs229-notes1.pdf 前面讨论了线性回归问题, 符合高斯分布,使用最小二乘来作为损失函数 下面继续讨论分类问题,分类问题和回归问题不同在于Y的取值是离散的 我们先讨论最简单的binary classification,即Y的取值只有0和1 分类问题一般不会使用回归模型,因为回归模型是
·
2015-10-27 12:20
机器学习
Andrew Ng
机器学习公开课
笔记–Reinforcement Learning and Control
网易公开课,第16课 notes,12 前面的supervised learning,对于一个指定的x可以明确告诉你,正确的y是什么 但某些sequential decision making问题,比如下棋或直升机自动驾驶 无法确切知道,下一步怎么样是正确的,因为这是一个连续和序列化的决策,比如直到最终直升机crash或下棋输了,你才知道之前的选择是不好的,但中间那么多步决策,到底是哪部分出了问
·
2015-10-27 11:13
机器学习
Andrew Ng
机器学习公开课
笔记–Independent Components Analysis
网易公开课,第15课 notes,11 参考, PCA本质是旋转找到新的基(basis),即坐标轴,并且新的基的维数大大降低 ICA也是找到新的基,但是目的是完全不一样的,而且ICA是不会降维的 对于ICA,最经典的问题,“鸡尾酒会”问题 在鸡尾酒会,上很多人同时在说话,还有背景音乐,如果我们放若干个话筒进行声音采集 是否可以从采集到的数据中,分离出每个人独立的声音 假设有n个不同的人,m
·
2015-10-27 11:12
component
Andrew Ng
机器学习公开课
笔记–Principal Components Analysis (PCA)
网易公开课,第14, 15课 notes,10 之前谈到的factor analysis,用EM算法找到潜在的因子变量,以达到降维的目的 这里介绍的是另外一种降维的方法,Principal Components Analysis (PCA), 比Factor Analysis更为直接,计算也简单些 参考,A Tutorial on Principal Component Analysis,
·
2015-10-27 11:11
component
batch gradient descent和stochastic/incremental gradient descent
题目:batchgradientdescent和stochastic/incrementalgradientdescent 由于斯坦福
机器学习公开课
的影响力,网上已有各种解析文章,但当我想找个程序时却没有搜索到
jbb0523
·
2015-10-05 16:00
线性规划、梯度下降、正规方程组——斯坦福ML公开课笔记1-2
转载请注明链接:http://blog.csdn.net/xinzhangyanxiang/article/details/9101621最近在看Ng的
机器学习公开课
,Ng的讲法循循善诱,感觉提高了不少
lien0906
·
2015-08-17 16:00
机器学习公开课
汇总
E5%AD%A6%E4%B9%A0%E5%85%AC%E5%BC%80%E8%AF%BE%E6%B1%87%E6%80%BB机器学习目前比较热,网上也散落着很多相关的公开课和学习资源,这里基于课程图谱的
机器学习公开课
标签做一个汇总整理
liuxiabing150
·
2015-07-23 11:12
小技巧
机器学习的可行性
最近在学习加州理工大学的
机器学习公开课
,在听第二讲时,有点疑惑,在此做下笔记,梳理一下。OK,首先我们已经确定了一件事,什么样的情况下,机器学习是可以适用的。是否有一个可以研究的模型。
Hosee
·
2015-07-06 15:00
读书笔记
机器学习
断点
可行性
突破点
霍夫丁不等式
成长函数
加州理工
【机器学习】机器学习(十二、十三):K-means算法、高斯混合模型
简介: 本节介绍STANFORD
机器学习公开课
中的第12、13集视频中的算法:K-means算法、高斯混合模型(GMM)。
hujingshuang
·
2015-06-19 18:00
机器学习
em
k-means
聚类算法
GMM
上一页
1
2
3
4
5
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他