E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《机器学习基石》
台湾国立大学
机器学习基石
.听课笔记(第九讲):Linear Regression
台湾国立大学
机器学习基石
.听课笔记(第九讲):LinearRegression(线性回归)1、线性回归问题例如,信用卡额度预测问题:特征是用户的信息(年龄,性别,年薪,当前债务,...)
huang1024rui
·
2015-08-14 22:00
机器学习
听课笔记
台湾国立大学机器学习基石
台湾国立大学
机器学习基石
.听课笔记(第八讲):Noise and Error
台湾国立大学
机器学习基石
.听课笔记(第八讲):NoiseandError一、噪音与概率目标函数(NoiseandProbalisticTarget)1、几种错误:(1)noiseiny:mislabeleddata
Paul-Huang
·
2015-08-11 16:39
机器学习
台湾国立大学
机器学习基石
.听课笔记(第八讲):Noise and Error
台湾国立大学
机器学习基石
.听课笔记(第八讲):NoiseandError一、噪音与概率目标函数(NoiseandProbalisticTarget)1、几种错误:(1)noiseiny:mislabeleddata
huang1024rui
·
2015-08-11 16:00
台湾
听课笔记
台湾国立大学机器学习基石
台湾国立大学
机器学习基石
.听课笔记(第七讲):The VC Dimension
听课笔记(第七讲):VC维理论(台大机器学习)上一讲的最后得到了VCbound,这一讲对VC维理论进行理解,这是机器学习(最)重要的理论基础。一、VCDimension的定义我们先对前面得到的生长函数和VCbound做一点小的修改。1,VC维的定义VCDemension:对于假设空间H,满足生长函数m(N)=2^N的最大的N,记为dvc(H).可知,dvc(H)比H的最小突破点k小1,即dvc(H
huang1024rui
·
2015-08-10 11:00
机器学习
听课笔记
台湾国立大学机器学习基石
台湾国立大学
机器学习基石
.听课笔记(第六讲): 一般化(举一反三)的理论
Lecture6:TheoryofGeneralization(一般化(举一反三)的理论)一、RestrictionofBreakPoint(切断点的限制)当breakpointk=2,N=3时,m_H(N)出现的情况。x_1、x_2和x_3两两之间都得满足k=2的条件,sowehaveaidea:二、BoundingFunction:BasicCases(边界函数的基本情况)首先,我们根据已知情
huang1024rui
·
2015-08-01 11:00
听课笔记
台湾国立大学机器学习基石
台湾国立大学
机器学习基石
.听课笔记(第五讲): 训练和测试有什么不同
Lecture5:TrainingversusTesting一、RecapandPreview(复习和预览)基于统计的学习流程:---》如果备选函数集的大小|H|=M,M有限,训练数据量N足够大,则对于学习算法A选择的任意备选函数h,都有 E-out(h)≈E-in(h)---》如果A找到了一个备选函数,使得E-in(h)≈0,则有很大概率E-out(h)≈0---》学习是可能的可以讲,机器学习有
huang1024rui
·
2015-07-31 10:00
听课笔记
台湾国立大学机器学习基石
台湾国立大学
机器学习基石
.听课笔记(第四讲): 机器学习的可行性
提纲机器学习的可行性&訓練與測試内容如:1.引入计算橙球概率问题2.通过用Hoeffding'sinequality解决上面的问题,并得出PAC的概念,证明采样数据学习到的h的错误率可以和全局一致是PAC的3.将得到的理论应用到机器学习,证明实际机器是可以学习4.二元分类的EffectiveNumber5.一般备选函数的 EffectiveNumber6.breakpoint===========
huang1024rui
·
2015-07-27 19:00
听课笔记
台湾国立大学机器学习基石
台湾国立大学
机器学习基石
.听课笔记(第三讲): 机器学习的分类
机器学习方法的分类学,通过不同的分类标准来讨论。一,根据输出空间来分类。1,分类(classification)1.1二值分类(binaryclassification):输出为{+1,-1}。1.2多值分类(multiclassclassification):输出为有限个类别,{1,2,3,...,K}2,回归(regression)输出空间:实数集R,或区间[lower,upper]3,结构学
huang1024rui
·
2015-07-26 11:00
听课笔记
台湾国立大学机器学习基石
C++的标准模板库STL中实现的数据结构之链表std::list的分析与使用
引言由于前段时间对台大的
机器学习基石
和技法课程进行了学习,发现在具体的实现中常常涉及到各种类型的数据结构,比如线性表、二叉树、图等,在使用这些数据结构时感到有些吃力,主
LG1259156776
·
2015-07-23 15:00
list
STL
forward_list
C++标准模板库
C++的标准模板库STL中实现的数据结构之顺序表vector的分析与使用
引言由于前段时间对台大的
机器学习基石
和技法课程进行了学习,发现在具体的实现中常常涉及到各种类型的数据结构,比如线性表、二叉树、图等,在使用这些数据结构时感到有些
Zhang_P_Y
·
2015-07-22 12:53
C/C++语言
C++的标准模板库STL中实现的数据结构之顺序表vector的分析与使用
引言由于前段时间对台大的
机器学习基石
和技法课程进行了学习,发现在具体的实现中常常涉及到各种类型的数据结构,比如线性表、二叉树、图等,在使用这些数据结构时感到有些
LG1259156776
·
2015-07-22 12:00
技巧
STL
经验
标准模板库
vector使用
台大《
机器学习基石
》课程感受和总结---Part 2
转自:http://blog.sina.com.cn/s/blog_641289eb0101e2ld.html Part 2总结一下一个粗略的建模过程: 首先,弄清楚问题是什么,能不能用机器学习的思路去考虑: 是否有pattern? 是否规则不明确? 是否有数据? 如果可以用,那么考虑,问题的学习目标是什么,有多少feature,有多少数据,
·
2015-07-16 19:00
机器学习
台大《
机器学习基石
》课程感受和总结---Part 1
期末终于过去了,看看别人的总结:http://blog.sina.com.cn/s/blog_641289eb0101dynu.html 接触机器学习也有几年了,不过仍然只是个菜鸟,当初接触的时候英文不好,听不懂课,什么东西都一知半解。断断续续的自学了一些公开课和书以后,开始逐渐理解一些概念。据说,心得要写下来才记得住。据说,心得要与人分享。这里是自己一点非常粗浅的感想或者遇到的问题,不一定对,
·
2015-07-16 19:00
机器学习
机器学习总结一
前段时间在网上看到了coursera公开课台大
机器学习基石
课程,比较全面而且清晰地将机器学习所需的基本知识、理论基础给与了讲解。
LG1259156776
·
2015-07-08 17:00
数据
机器学习
VC
VC维再理解
看了台大的
机器学习基石
的课。讲了很多周的VC维的知识,对VC维的认识还是有点模糊,在这里梳理一下。VC维被认为是数学和计算机科学中非常重要的定量化概念,它可用来刻画分类系统的性能。
Hosee
·
2015-06-27 15:00
机器学习
VC维
机器学习基石
笔记
1学习问题1.1什么时候用机器学习有可以被学习的模式(如何判断有无模式)这些模式无法用简单的规则定义,或者这些规则不容易描述有数据,这些数据中包括相应的模式
zc02051126
·
2015-05-17 09:00
机器学习
机器学习基石
笔记14——机器可以怎样学得更好(2)
机器学习基石
笔记14——机器可以怎样学得更好(2)转载请注明出处:http://www.cnblogs.com/ymingjingr/p/4271742.html目录
机器学习基石
笔记1——在何时可以使用机器学习
zdy0_2004
·
2015-04-06 21:00
机器学习
机器学习基石
笔记10——机器可以怎样学习(2)
机器学习基石
笔记10——机器可以怎样学习(2)转载请注明出处:http://www.cnblogs.com/ymingjingr/p/4271742.html目录
机器学习基石
笔记1——在何时可以使用机器学习
zdy0_2004
·
2015-03-13 23:00
机器学习
PLA(Perceptron Learning Algorithm)--
机器学习基石
笔记
问题:用于解决”是非“问题(二分类问题)难点:能够正确的把数据分开的线有无线多条理论:初始任选一条线,每次进行转动一定角度,逐步进行修正和更新,最终找到一条线能够把所有的点正确分类--知错能改算法算法过程:(1)初始化一条线,遍历所有数据,进行分类判定(2)如果找到一个分类错误的数据,则有:(3)修正过程如下,直到所有点都分类正确算法停止:算法会终止条件:数据是线性可分的算法缺点:(1)只能对线性
dushenzhi
·
2015-03-06 19:01
机器学习
学习笔记
PLA(Perceptron Learning Algorithm)--
机器学习基石
笔记
问题:用于解决”是非“问题(二分类问题)难点:能够正确的把数据分开的线有无线多条理论:初始任选一条线,每次进行转动一定角度,逐步进行修正和更新,最终找到一条线能够把所有的点正确分类--知错能改算法算法过程:(1)初始化一条线,遍历所有数据,进行分类判定(2)如果找到一个分类错误的数据,则有: (3)修正过程如下,直到所有点都分类正确算法停止: 算法会终止条件:数据是线性可分的算法缺点:(1
dushenzhi
·
2015-03-06 19:00
机器学习
机器学习问题分类--
机器学习基石
笔记
机器学习问题根据不同的角度可以分成不同的类型,以下是课程中提到的类型划分,这对机器学习方向的整体把握和具体问题定位非常有帮助。1、根据不同的结果输出空间(OutSpace),可以将机器学习问题分为:二分类(binaryClassification)问题多分类(MulticlassClassification)问题回归分析问题(regression)结构学习问题:序列标记(SequenceTaggi
dushenzhi
·
2015-03-06 18:29
机器学习
学习笔记
机器学习问题分类--
机器学习基石
笔记
机器学习问题根据不同的角度可以分成不同的类型,以下是课程中提到的类型划分,这对机器学习方向的整体把握和具体问题定位非常有帮助。 1、根据不同的结果输出空间(OutSpace),可以将机器学习问题分为:二分类(binaryClassification)问题多分类(MulticlassClassification)问题回归分析问题(regression)结构学习问题:序列标记(SequenceT
dushenzhi
·
2015-03-06 18:00
机器学习
NTU-Coursera机器学习:
机器学习基石
(Machine Learning Foundations)
课讲内容这门课以8周设计,分成4个核心问题,每个核心问题约需2周的时间来探讨.每个约2个小时的录影中,每个小时为一个主题,以会各分成4到5个小段落,每个段落里会有一个后多个随堂的练习.我们在探讨每个核心问题的第二周。依上所述,課程的規畫如下:WhenCanMachinesLearn? [何时可以使用机器学习]第一周:(NTU-Coursera机器学习:机器学习问题与二元分类)第一讲:TheLear
utimes
·
2015-03-04 22:00
机器学习基石
NTU-Coursera
MLF
机器学习基石
——第13-14讲.Hazard of Overfitting
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-16 05:00
机器学习基石
机器学习基石
——第11-12讲.Linear Models for Classification
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-16 05:00
机器学习基石
机器学习基石
——第9-10讲.Linear Regression
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-05 11:00
机器学习基石
机器学习基石
——第7-8讲.The VC dimension
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-04 12:00
机器学习基石
机器学习基石
——第5-6讲.Training versus Testing
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-04 12:00
机器学习基石
机器学习基石
——第3-4讲.Types of Learning
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-04 12:00
机器学习基石
机器学习基石
——第15-16讲.Validation
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-04 12:00
机器学习
公开课
learning
machine
机器学习基石
机器学习基石
——第1-2讲.The Learning Problem
本栏目(机器学习)下
机器学习基石
专题是个人对Coursera公开课
机器学习基石
(2014)的学习心得与笔记。
xyd0512
·
2015-02-04 12:00
机器学习基石
Machine Learning Foundations(
机器学习基石
) By Hsuan-Tien Lin (林轩田) week1 笔记
第一讲:机器学习问题介绍从学习到机器学习的定义过渡学习:从观察到的经验知识学习到技能(skill):机器学习(MachineLearning,ML):从数据中计算得到的知识来学习技能(skill)。机器学习中的skill指的是提高一些测量的性能(例如,预测准确度)。机器学习可以在衣食住行育乐六个方面都可以得到应用:衣:时尚搭配推荐食:餐馆推荐住:建筑楼房预算行:自动识别交通标志育:推测学生的学习水
demon7639
·
2014-10-23 20:00
机器学习
介绍
林轩田
听课笔记(第五讲): 学习的可行性分析(一些概念和思想) (台湾国立大学
机器学习基石
)
2013-12-2715:28:56TrainingversusTesting1,回顾:学习的可行性?最重要的是公式: (1)假设空间H有限(M),且训练数据足够大,则可以保证测试错误率Eout约等于训练错误率Ein;(2)如果能得到Ein接近于零,根据(1),Eout趋向于零。以上两条保证的学习的可能性。可知,假设空间H的大小M至关重要,我们接下来会力求找一个H大小的上界。M存在重要的trade
xulinshadow701
·
2014-04-28 15:00
听课笔记(第三讲): 机器学习的分类学 (台湾国立大学
机器学习基石
)
机器学习方法的分类学,通过不同的分类标准来讨论。一,根据输出空间来分类。1,分类(classification)1.1二值分类(binaryclassification):输出为{+1,-1}。1.2多值分类(multiclassclassification):输出为有限个类别,{1,2,3,...,K}2,回归(regression)输出空间:实数集R,或区间[lower,upper]3,结构学
xulinshadow701
·
2014-04-15 06:00
听课笔记(第四讲):学习的可行性分析 (台湾国立大学
机器学习基石
)
机器学习的可行性分析。一,第一条准则:没有免费的午餐!(nofreelunch!)给一堆数据D,如果任何未知的f(即建立在数据D上的规则)都是有可能的,那么从这里做出有意义的推理是不可能的!!doomed!!如下面这个问题无解(或者勉强说没有唯一解): 下面这题也是如此: 再来看个”大神“的例子:已知(5,3,2)=>151022,求(7,2,5)=>?鬼才知道!!即使给你更多已知数据也白搭!因为
xulinshadow701
·
2014-04-15 06:00
听课笔记(第二讲): Perceptron-感知机 (台湾国立大学
机器学习基石
)
LearningtoAnswerYes/No(二值分类)一,Perceptronx=(x1,x2,...,xd)----featuresw=(w1,w2,...,wd)----未知(待求解)的权重对于银行是否发送信用卡问题: perceptron假设: sign是取符号函数,sign(x)=1ifx>0,-1otherwise向量表示: 感知机(perceptron)是一个线性分类器(linear
xulinshadow701
·
2014-04-15 03:00
机器学习基石
转自:http://www.douban.com/note/319636155/课程地址:https://class.coursera.org/ntumlone-001/class一,什么是机器学习?使用MachineLearning方法的关键:1,存在有待学习的“隐含模式”2,该模式不容易准确定义(直接通过程序实现)3,存在关于该模式的足够数据 这里的f表示理想的方案,g表示我们求解的用来预测的
xulinshadow701
·
2014-04-15 03:00
8.2 - 《
机器学习基石
》Home Work 2 Q.19-20
这一题把16题中的decisionstump拓展到多维,要求找出E-in最小的那一维并在测试数据上计算对应维度的E-out: #include #include #include #include #include #include using namespace std; #define DEMENSION 9//数据维度 char *file = "training.txt"
Lee的白板报
·
2014-04-08 17:00
8.1 - 《
机器学习基石
》Home Work 2 Q.16-18
根据老师的要求,基于[-1,1]上的均匀分布随机生成20个样本,相应的输出有20%的错误率;20个样本将数轴分为21段,中间有19段,θ取这19段的中点当中的一个,s取1或-1。遍历所有的θ和s,找到E-in最小的(θ,s)组合就得到了那个g函数。#include #include #include #include #include using namespace std; #de
Lee的白板报
·
2014-04-08 17:00
4.2 - 《
机器学习基石
》Home Work 1 Q.18-20
第18题要求在第16题RandomPLA算法的基础上使用Pocket算法对数据做二元划分。Pocket算法在第2篇文章介绍过,通常用来处理有杂质的数据集,在每一次更新Weights(权向量)之后,把当前犯错最少的Weights放在pocket中,直至达到指定迭代次数(50次),pocket中的Weights即为所求。然后用测试数据验证W(pocket)的错误率,进行2000次计算取平均。#incl
Lee的白板报
·
2014-03-17 15:00
4.1 - 《
机器学习基石
》Home Work 1 Q.15-17
二话不说先上题目:训练数据格式如下:输入有4个维度,输出为{-1,+1}。共有400条数据。题目要求将权向量元素初始化为0,然后使用“NaiveCycle”遍历训练集,求停止迭代时共对权向量更新了几次。所谓“NaiveCycle”指的是在某数据条目x(i)上发现错误并更新权向量后,下次从x(i+1)继续读数据,而不是回到第一条数据x(0)从头开始。#include #include #incl
Lee的白板报
·
2014-03-17 14:00
3 - 机器学习的分类
课程来自Coursera上的国立台湾大学《
机器学习基石
》(MachineLearningFoundations),由林轩田老师讲授。
Lee的白板报
·
2014-03-10 15:00
2 - 学习回答是非题
课程来自Coursera上的国立台湾大学《
机器学习基石
》(MachineLearningFoundations),由林轩田老师讲授。
Lee的白板报
·
2014-03-06 18:00
1 - 什么是机器学习?怎么用?
课程来自Coursera上的国立台湾大学《
机器学习基石
》(MachineLearningFoundations),由林轩田老师讲授。
Lee的白板报
·
2014-03-05 17:00
[MOOC学习笔记]
机器学习基石
Lecture01 The Learning Problem
本文转自: http://blog.csdn.net/zhouyongsdzh/article/details/16987129最近,Cousera公开课上又多了一门优质的ML课程,尤其对于华语圈的朋友是学习机器学习的福音。由于本人之前对ML有一定的学习和理解,所以从一个观察者or评论者的角度,来看林老师讲的ML课程,客观的评价是,讲的非常清楚,没有国内大学ML相关课程的照本宣科,问题的引入、算法
kaka20080622
·
2014-01-03 21:00
[MOOC学习笔记]
机器学习基石
Lecture02 Learning to Answer Yes/No
最近,Cousera公开课上又多了一门优质的ML课程,尤其对于华语圈的朋友是学习机器学习的福音。由于本人之前对ML有一定的学习和理解,所以从一个观察者or评论者的角度,来看林老师讲的ML课程,客观的评价是,讲的非常清楚,没有国内大学ML相关课程的照本宣科,问题的引入、算法的描述以及推理都很清楚,非常值得好好学习,不管是刚接触ML的朋友,还是有一定ML经验的朋友。本次MachineLearningF
zhouyongsdzh
·
2013-12-07 23:00
[MOOC学习笔记]
机器学习基石
Lecture01 The Learning Problem
最近,Cousera公开课上又多了一门优质的ML课程,尤其对于华语圈的朋友是学习机器学习的福音。由于本人之前对ML有一定的学习和理解,所以从一个观察者or评论者的角度,来看林老师讲的ML课程,客观的评价是,讲的非常清楚,没有国内大学ML相关课程的照本宣科,问题的引入、算法的描述以及推理都很清楚,非常值得好好学习,不管是刚接触ML的朋友,还是有一定ML经验的朋友。本次MachineLearningF
zhouyongsdzh
·
2013-11-27 16:00
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他