E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cs229
机器学习相关微博收藏整理
1.机器学习斯坦福机器学习
CS229
课程讲义的中文翻译:https://github.com/Kivy-CN/Stanford-CS-229-CN机器学习思想演化:http://usblogs.pwc.com
flyrae
·
2020-03-02 00:56
CS229
LECTURE 1 -- 机器学习的动机及运用
Thiscourseisorgnizedintofourmajorsections:SupervisedlearningWearegivingthealgorithmabunchof“rightanswers”,andweareexpectingthealgorithmtoprovideuswithrightanswersusingtheexistingdata.(e.g.regression回归
kudari
·
2020-03-01 03:40
广义线性模型
最近在学习机器学习的内容,之前看了一本SparkMLlib机器学习,虽然有些算法的原理,但是讲的不深,于是开始看
CS229
的公开课,辅以李航的统计学习方法和周志华的西瓜书。
iamsonormal2333
·
2020-02-16 10:13
源自斯坦福
CS229
,机器学习备忘录在集结
【嵌牛正文】:据项目介绍,该repository旨在总结斯坦福
CS229
机器学习课程的所有重要概念,包括:学习该课程所需的重要预备知识,例如概率与统计、
羽_71ba
·
2020-02-10 10:59
CS229
Lesson 13 高斯混合模型
课程视频地址:http://open.163.com/special/opencourse/machinelearning.html课程主页:http://cs229.stanford.edu/更具体的资料链接:https://www.jianshu.com/p/0a6ef31ff77a笔记参考自中文翻译版:https://github.com/Kivy-CN/Stanford-CS-229-CN
李建明180
·
2020-02-04 12:00
广义线性模型、指数分布族中的高斯分布、伯努利分布
【嵌牛正文】:定义指数分布族:(指数分布族的定义符号有很多版本,这里采用的是
CS229
描述的写法,注意PRML的
随心所欲_7b32
·
2020-01-06 17:18
机器学习学习笔记1(Ng吴恩达
cs229
)
什么是机器学习作为机器学习领域的先驱,ArthurSamuel在IBMJournalofResearchandDevelopment期刊上发表了一篇名为《SomeStudiesinMachineLearningUsingtheGameofCheckers》的论文中,将机器学习非正式定义为:”在不直接针对问题进行编程的情况下,赋予计算机学习能力的一个研究领域。”TomMitchell在他的《Mach
o慢慢o
·
2019-12-16 03:59
机器学习学习笔记2(Ng吴恩达
cs229
)
牛顿方法简单的来说就是通过求当前点的导数得到下一个点.用到的性质是导数值等于该点切线和横轴夹角的正切值.极大似然估计收敛速度:quadraticconversions二次收敛θ为矩阵时image.png每次迭代都需要重新计算H->nxn特征较多时计算量比较大复习:极大似然估计高斯分布=>最小二乘法伯努利分布=>logistic回归指数分布族exponentialfamilydistribution
o慢慢o
·
2019-12-15 17:17
首发:吴恩达的
CS229
的数学基础(线性代数),有人把它做成了在线翻译版本!...
本文是斯坦福大学
CS229
机器学习课程的基础材料,是斯坦福各大人工智能课程的数学基础,本文为线性代数部分,原始文件下载[1]原文作者:ZicoKolter,修改:ChuongDo,TengyuMa翻译:
湾区人工智能
·
2019-12-14 19:00
机器学习
CS229
:lesson1&exercise1
一边打开MATLAB练习题目一“给出身高与年龄的线性关系”,一边看了第一课。按顺序依次实现了三种最小二乘法求拟合曲线的算法。算法一、批量梯度下降J(θ)是向量θ决定的一个面,在这个面上梯度下降找到最低点,这个点对应的θ作为参数的直线使J(θ)最小。每往下走一步更新一次θ的值,每次往下走都要用所有训练样本算一次J(θ)。当m的值巨大时,这种方法非常慢。算法二、随机梯度下降每次更新θ值的时候选择一个训
小太阳花儿
·
2019-11-05 10:39
多元高斯分布(三)——高斯过程
注意,本文内容来自于吴恩达老师
cs229
课堂笔记的中文翻译项目:https://github.com/Kivy-CN/Stanford-CS-229-CN中部分的内容进行翻译学习。
冬之晓东
·
2019-08-28 14:36
机器学习
数据挖掘
多元高斯分布(二)——更多关于多元高斯分布
注意,本文内容来自于吴恩达老师
cs229
课堂笔记的中文翻译项目:https://github.com/Kivy-CN/Stanford-CS-229-CN中部分的内容进行翻译学习。
冬之晓东
·
2019-07-25 15:55
机器学习
数据挖掘
生成模型和判别模型直观理解
1.最直观理解吴恩达老师
CS229
课程笔记内容:http://cs229.stanford.edu/notes/cs229-notes2.pdfConsideraclassificationprobleminwhichwewanttolearntodistinguishbetweenelephants
MiaL
·
2019-06-16 23:07
机器学习
多元高斯分布(一)——基本内容
注意,本文内容来自于吴恩达老师
cs229
课堂笔记的中文翻译项目:https://github.com/Kivy-CN/Stanford-CS-229-CN中部分的内容进行翻译学习。
冬之晓东
·
2019-06-04 15:53
机器学习
隐马尔可夫模型
注意,本文内容来自于吴恩达老师
cs229
课堂笔记的中文翻译项目:https://github.com/Kivy-CN/Stanford-CS-229-CN中部分的内容进行翻译学习。
冬之晓东
·
2019-05-29 11:12
机器学习
EM最大期望算法(Expectation Maximization)
译者按:本文来自于吴恩达的斯坦福经典课程
CS229
的课程笔记,也是国内大部分EM算法文章的参考源,本文详细介绍了EM的推导过程,要深入了解EM算法不可不读。
fat32jin
·
2019-05-05 13:31
NLP学习总结 持续更新中
NLP学习总结持续更新中统计学习方法笔记
CS229
课程笔记CS224课程笔记优秀知乎论文github统计学习方法笔记http://www.hankcs.com/ml/the-perceptron.htmlCS229
TianXieErYang
·
2019-04-11 09:39
nlp
深度学习的三个学习途径
自学公开课公开课内容,经典的包括:吴恩达深度学习系列、
CS229
机器学习、李飞飞CS231n。自学公开课时,也可以同时参考机器学习和深度学习经典书籍,学习基础理论的同时,在github寻找相关代码。
haimianjie2012
·
2019-02-28 00:00
深度学习
深度学习
机器学习实践
专题-机器学习实践===Reference----[
CS229
课程讲义(中文)](https://github.com/Kivy-CN/Stanford-CS-229-CN)-Kivy-CN-GitHubIndex
Chelseady
·
2019-02-27 18:58
机器学习
提升方法_统计学习方法_学习笔记
前言统计学习方法一书中的第7章为支持向量机的内容,由于在之前
CS229
笔记中已经阐述过该内容,因此不再赘述。
OliverLee456
·
2019-01-21 16:55
机器学习笔记
CS229
学习笔记(二)——分类问题与逻辑斯蒂回归(Classification and Logistic Regression)
当仅能取小数目的离散值时,即为分类问题。本节着重分析二分(binaryclassification)问题,其中仅能取0和1。0又被称为负类(negativeclass),1又被称为正类(positiveclass),有时也会使用符号“-”、“+”表示。(一)逻辑斯蒂回归(LogisticRegression)由于的取值发生了变化,我们相应修改形式:,这里被称为逻辑斯蒂方程(logisticfunc
RookieLiuWW
·
2019-01-16 13:34
CS229
学习笔记(〇)——监督学习(Supervised Learning)
给定某地区一组住房面积与其房屋价格的数据:如何根据该组数据学习得到一个房屋价格关于住房面积的函数,通过该函数,去预测该地区其他房屋的价格呢?机器学习中的符号表示:代表输入变量或输入特征量(inputvariableorinputfeature),此例中为住房面积;代表输出变量或目标变量(outputortargetvariable),即我们所想预测的值(房屋价格);一对称为一个训练样本(train
RookieLiuWW
·
2019-01-12 21:08
[
CS229
]Notes Three
第五部分:支持向量机本部分详述支持向量机的算法。支持向量机是最好的(许多人相信是最好的)“现成的”监督学习算法之一。为了讲述SVM的故事,我们需要首先讨论边缘空白以及用大的“间隔”分离数据的想法。接下来,我们将讨论最优边距分类器,它将要求我们先了解拉格朗日对偶。我们还将看到核,它提供了一种在非常高维(如无穷维)的特征空间中有效地应用SVM的方法,最后,我们将用SMO算法结束故事,它给出了SVM的有
MorganChang
·
2018-12-29 15:33
EM算法:从极大似然估计导出EM算法(还算通俗易懂)
之前看了《统计学习方法》,吴恩达老师的
cs229
讲义,一起看感觉很昏(如果要看建议选择其中一个,《统计学习方法》里面基本很少会写到yiy_iyi而都是用YYY只用了极大化没有写出我们熟悉的似然函数?!
成都往右
·
2018-12-27 20:37
机器学习
CS229
《机器学习》笔记 | 多元高斯分布的边缘分布和条件分布
吴恩达的《机器学习(
CS229
)》Lecturenote9(PartXFactoranalysis)中提及了多元高斯分布的边缘分布和条件分布,指出这两者本身亦是高斯分布,但没有给出详细的证明。
Kinosum
·
2018-12-15 15:17
CS229
学习笔记(2)
CS229_2-LMS算法LMS算法在上一小节中,我们定义了代价函数,当其值最小时,我们则称找寻到了拟合数据集最佳的参数的值。那么我们又该如何选择参数的值使得代价函数最小化?我们不妨考虑使用搜索算法(SearchAlgorithm),其先将参数初始化,然后不断给参数赋予新值,直至代价函数收敛于最小值处。因此,我们可以梯度下降算法(GradientDescentAlgorithm),其更新规则为:其
SmallRookie
·
2018-11-10 23:02
CS229
学习笔记(1)
CS229_1-线性回归线性回归我们在上一节房屋售价数据集的基础上,增添房间数量这一特征变量,如下图所示:因此,特征变量变为了维度为2的向量,记作,其中表示数据集中第i个房屋的房屋面积,则表示数据集中第i个房屋的房间数量。对于此监督学习问题,若我们采用线性回归模型,其假设函数为:其中,表示以为参数。为了便于向量化,我们令,则上式可改写为:从上式可知,为未知变量。那么我们该如何根据数据集计算出的值呢
SmallRookie
·
2018-11-10 23:24
谈一谈我理解的PCA
文章内容来自于看了吴恩达老师
cs229
的视频课程,课程里门有关于PCA更细致的讲解,我只是简单的梳理一下。PCA就是俗称的主成分分析,是机器学习中的无监督学习。
Freyaworld
·
2018-09-30 01:45
小白
吴恩达-斯坦福
CS229
机器学习课程资料与算法的Python实现
最近写的实时姿态估计算法:https://github.com/Sierkinhane/AtrousPose学习stanfordcs229manchinelearning课程已经有三个月左右,虽然说网友们说这门课相比于Coursera(吴恩达老师的网课机构)中的机器学习有更多的数学要求和公式的推导,本着想总体了解机器学习的念头,开始了机器学习的自学过程。这门课程年代确实有点久远,但是我认为作为自己
Sierkinhane
·
2018-09-28 15:33
人工智能
机器学习
2018-09-16机器学习开营课笔记
主要通过
cs229
吴恩达那个很经典课程。cs231n,cs224n,cs294,主
今天多云很多云
·
2018-09-17 00:13
Gaussian Discriminant Analysis and Logistic Regression
高斯判别分析和逻辑回归算法的关系最近一直在看AndrewNg的
cs229
那门课的讲义,看到高斯判别分析模型和逻辑回归算法的关系那一部分,自己采用贝叶斯后验概率也证明了两者之间的关系,证明不难,本来打算记录一下的
leeliang
·
2018-09-16 12:12
机器学习与深度学习系列连载(NTU-Machine Learning,
cs229
, cs231n, cs224n, cs294):欢迎进入机器学习的世界
欢迎进入机器学习的世界本教程是根据台湾大学李弘毅老师的课程机器学习课程,斯坦福大学
CS229
、CS231N、CS224N、CS20i、伦敦大学学院([UCL-Course])(http://www0.cs.ucl.ac.uk
人工智能插班生
·
2018-09-02 23:43
机器学习
机器学习
【经典】吴恩达《机器学习》课程
吴恩达老师的《机器学习》课程主要有两门,一门是Cousera上的课程,另一门是斯坦福大学的课程
CS229
:MachineLearning。这两门课程各有侧重点:1、Cous
Beyond_2016
·
2018-09-02 16:08
机器学习
深度学习
网上关于AI的一些公开课资源
还有斯坦福大学公开课:机器学习课程,吴恩达录制的
CS229
课程,相当于前面的机器学习部分,神经网络不多,卷积神经网络没讲到。(我当时听的时候觉得视频播放速度太慢了,效果不怎么好。)如果觉得不适应还
李贽
·
2018-08-27 11:03
《机器学习(西瓜书)》读书笔记:第三章_线性模型
从去年这时候就开始接触机器学习,看过Ng在Coursera上的视频和斯坦福的
cs229
。这次看过西瓜书之后又加深了理解,于是赶紧趁热把思路整理出来。
cjf1699
·
2018-08-19 00:00
机器学习
【机器学习】线性回归之概率解释及局部加权线性回归
在
CS229
的课程中,吴恩达教授给我们做了详细的概率解释。现总结如下:对单个样本来说:其中为预测误差,我们假定样本的误差属于独立同分布。
zhaosarsa
·
2018-08-06 20:39
算法
机器学习
最优化
【
CS229
Deep Learning笔记】二. 介绍:分类问题
目录四.logistic函数五.logistic回归六.感知机算法七.牛顿法在预测问题中,形如的问题称为logistic回归。其中,称为logistic函数,或sigmoid函数。logistic回归与线性回归的区别在于,线性回归中,输入x、输出y都是连续值,但在logistic回归中,y为离散的0、1值。四.logistic函数称为logistic函数,或sigmoid函数,它的图像如下:(图源
Chanon_Lee
·
2018-08-05 14:33
深度学习理论基础
【
CS229
Deep Learning笔记】一. 介绍:线性回归问题
注:该笔记主要以我自己的个人理解为主,部分基础知识会有省略,有些地方会有补充,小标题不完全按照课程pdf的顺序。笔记仅作参考,还是建议大家以课程pdf为主。最后我会附上带有书签的课程pdf(2017年秋季课程),及problemset答案。如果有疑问,欢迎大家留言或私信讨论。另,第一章虽然是介绍,但内容非常多,我会分为3篇博客来发。目录零·基础知识一·线性回归1.梯度下降基本算法2.另一种梯度下降
Chanon_Lee
·
2018-08-02 18:27
深度学习理论基础
CS229
Week6 评估&设计
title:CS229Week6评估&设计date:2017-03-2618:43:18categories:ML/CS229mathjax:falsetags:[MachineLearning,
CS229
gb_QA_log
·
2018-07-12 15:48
CS229
Week1 Linear Regression with-One Variable
CS229Week1LinearRegressionwith-OneVariabledate:2017-03-2616:34:36categories:ML/CS229mathjax:truetags:[MachineLearning,
CS229
gb_QA_log
·
2018-07-12 15:29
EM最大期望算法(Expectation Maximization)
译者按:本文来自于吴恩达的斯坦福经典课程
CS229
的课程笔记,也是国内大部分EM算法文章的参考源,本文详细介绍了EM的推导过程,要深入了解EM算法不可不读。
肥猫64
·
2018-06-01 06:56
AI论文中文翻译
深度学习
机器学习
自然语言处理
【转载】梯度下降算法的参数更新公式
但是如何更新参数看了不少描述,下面的叙述比较易懂的:1、在吴恩达的
CS229
的讲义的第四页直接给出参数迭代公式在UFLDL中反向传导算法一节也是直接给出的公式2、例子:第一步:随机对比重(a,b)赋值并计算误差平方和
rickhuan08
·
2018-05-21 19:03
梯度下降
机器学习
吴恩达机器学习:支持向量机
经过对网上一些内容的对比后发现斯坦福的
CS229
讲义写得非常清晰。
Agent002
·
2018-05-17 19:20
吴恩达机器学习
机器学习笔记(四) 极大似然估计
零、写在前面参考资料:《机器学习》周志华斯坦福
CS229
吴恩达一、贝叶斯决策论贝叶斯分类器显然是用于分类问题的,是一种监督学习的模型。
weixin_41405111
·
2018-03-29 10:14
机器学习
机器学习
极大似然估计
贝叶斯
高斯判别分析
生成学习算法
【学习笔记】斯坦福大学公开课:
cs229
Learning Theory【下】
上回讲到了,当假设空间H是有限集时,当我们的训练数据的数目满足一定要求的时候,使用ERM选出的假设h^的经验误差能够对其泛化误差做一个很好的估计,二者以很大概率非常接近,术语叫做“一致收敛”;而且,h^的泛化误差与理想状况下的假设h*的泛化误差也以大概率接近,我们也得到了对应的一致收敛定理。那么,当H是无限集的时候会怎么样呢?个人认为,Ng老师这节课讲的不是很透彻,至少我听完一遍之后还是云里雾里的
cjf1699
·
2017-12-12 13:32
机器学习
【学习笔记】斯坦福大学公开课:
cs229
Part 6 Learning Theory【上】
今天进入到
cs229
的学习理论部分,这一部分说简单也简单,毕竟在Coursera上学过一遍Ng的课,关于bias/variancetradeoff的相关内容有了一些了解,可是
cs229
里一上来证明,还是值得好好琢磨琢磨的
cjf1699
·
2017-12-08 12:03
机器学习
笔记-SVM
若想要有更深入的理解,可以观看斯坦福大学机器学习
cs229
中SVM部分。参考链接如下:该博主关于SVM算法的系列文章讲解十分详细:机器学习算法与Python实践之(二)支持向量机(SVM)初级
ZSYGOOOD
·
2017-11-30 14:26
笔记
MasterWork-UCAS
科研
算法
论文
机器学习相关
机器学习入门推荐文章(不断更新)
贝叶斯平凡而又神奇的贝叶斯——刘未鹏判别模型、生成模型与朴素贝叶斯算法 logisticregression机器学习算法之逻辑回归 EM算法从最大似然到EM算法浅解 决策树决策树的理解 支持向量机斯坦福
CS229
三年二班周杰伦
·
2017-11-23 00:00
机器学习
支持向量机(SVM)的分析及python实现
大家自学机器学习一般都会看斯坦福的
CS229
讲义,初学者们大都从回归开始步入机器学习的大门。诚然回归学习起来与使用起来都很简单,但是这能达到我们的目的么?肯定不够的,要知道,我们可以做的不仅仅是回归。
OraYang
·
2017-10-29 09:58
机器学习
朴素贝叶斯理论进阶(1)——
cs229
(4、5)笔记
朴素贝叶斯分类器是生成式模型的代表,同时朴素贝叶斯和逻辑回归都是线性分类器,两者可以组成了一组生成-判别对。为了更好的了解朴素贝叶斯,又倒回去看了Andrewng的机器学习视频第4讲和第5讲,并做了如下笔记。以下知识基本上都是视频中的内容,没有什么自己的东西,如有对视频理解不到位的地方,欢迎指正。1.生成式方法简介分类算法要解决的问题是给定一个如下图训练集合,如果对它运行逻辑回归这样的算法,它会观
老笨妞
·
2017-10-18 19:40
一般机器学习
统计学习方法
上一页
1
2
3
4
5
6
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他