E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《机器学习教程》
机器学习教程
资源
闲话不多说,直接上干货~以下课程均有中文字幕:1.机器学习机器学习视频我推荐大神AndrewNg的课程:https://www.coursera.org/learn/machine-learning/home/welcomeAndrewNg的课程有两个版本,一个是斯坦福大学的公开课,一个是coursera上的课程。我更建议后者。首先是在couresa上讲,AndrewNg面对的是所有在线的听众,这
机器学习算法与Python学习-公众号
·
2018-07-06 17:07
机器学习
机器学习教程
之 梯度提升方法:GBDT处理分类问题
Gradientboosting是一种广泛被用于回归、分类和排序任务的集成方法,于2001年被Friedman提出该类算法通过以上一轮基学习器的误差的负梯度为训练目标训练本轮的基学习器,不断降低集成模型在训练集上的偏差实现高精度的集成基于GradientBoosting算法的学习器被称为GradientBoostingMachine(GBM),如果说AdaBoost是boosting方法的开山之作
Liangjun_Feng
·
2018-06-12 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 加性模型:GBDT退化为AdaBoost原理
Gradientboosting是一种广泛被用于回归、分类和排序任务的集成方法,于2001年被Friedman提出该类算法通过以上一轮基学习器的误差的负梯度为训练目标训练本轮的基学习器,不断降低集成模型在训练集上的偏差实现高精度的集成基于GradientBoosting算法的学习器被称为GradientBoostingMachine(GBM),如果说AdaBoost是boosting方法的开山之作
Liangjun_Feng
·
2018-06-12 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
链接:https://www.zhihu.com/question/21277368/answer/277626779来源:知乎我们今天就来分享一篇来自EliteDataScience上专门讲给机器学习入门自学者的教程,一步步教你如何从基础小白进阶为ML大拿。快上车吧,别找硬币了,这趟车不要钱!你是否正在准备自学机器学习,但又不知道怎么去学、还被那些贵的要命的培训课程吓得不行?今天我们在这篇文章里
幺玲
·
2018-05-17 19:56
深度学习
机器学习教程
之 随机森林: 算法及其特征选择原理
随机森林是集成学习bagging类方法的一种,也是最早的集成学习算法之一,Breiman在2001年提出了这种方法。作为一种bagging类的方法,随机森林几乎可以在绝大多数的数据集上表现出比单独的决策树更好的性能,同时随机森林本身也可以作为一种特征选择的方法。称为迄今为止最著名的算法之一。关于boosting和bagging类方法的区别和特性我已经在下面这篇博客中具体介绍过,这里不会再重复讲解机
Liangjun_Feng
·
2018-04-30 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 随机森林: 算法及其特征选择原理
随机森林是集成学习bagging类方法的一种,也是最早的集成学习算法之一,Breiman在2001年提出了这种方法。作为一种bagging类的方法,随机森林几乎可以在绝大多数的数据集上表现出比单独的决策树更好的性能,同时随机森林本身也可以作为一种特征选择的方法。称为迄今为止最著名的算法之一。关于boosting和bagging类方法的区别和特性我已经在下面这篇博客中具体介绍过,这里不会再重复讲解机
Liangjun_Feng
·
2018-04-30 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 梯度提升方法:GBDT及其扩展模型XGBoost
Gradientboosting是一种广泛被用于回归、分类和排序任务的集成方法,于2001年被Friedman提出该类算法通过以上一轮基学习器的误差的负梯度为训练目标训练本轮的基学习器,不断降低集成模型在训练集上的偏差实现高精度的集成基于GradientBoosting算法的学习器被称为GradientBoostingMachine(GBM),如果说AdaBoost是boosting方法的开山之作
Liangjun_Feng
·
2018-04-29 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 参数搜索:GridSearchCV 与 RandomizedSearchCV || 以阿里IJCAI广告推荐数据集与XGBoostClassifier分类器为例
在使用一些比较基础的分类器时,需要人为调整的参数是比较少的,比如说K-Neighbor的K和SVM的C,通常而言直接使用sklearn里的默认值就能取得比较好的效果了。但是,当使用一些大规模集成的算法时,参数的问题就出来了,比如说XGBoost的参数大概在20个左右,GBDT的参数个数也在同一个级别,这种时候,会调参和不会调参在同样的数据集上效果可能就是两码事了。这里借着做阿里天池大赛的机会和大家
Liangjun_Feng
·
2018-04-03 20:24
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 参数搜索:GridSearchCV 与 RandomizedSearchCV || 以阿里IJCAI广告推荐数据集与XGBoostClassifier分类器为例
在使用一些比较基础的分类器时,需要人为调整的参数是比较少的,比如说K-Neighbor的K和SVM的C,通常而言直接使用sklearn里的默认值就能取得比较好的效果了。但是,当使用一些大规模集成的算法时,参数的问题就出来了,比如说XGBoost的参数大概在20个左右,GBDT的参数个数也在同一个级别,这种时候,会调参和不会调参在同样的数据集上效果可能就是两码事了。这里借着做阿里天池大赛的机会和大家
Liangjun_Feng
·
2018-04-03 20:24
机器学习教程
人工智能的数理模型与优化
836分钟的谷歌
机器学习教程
,10分钟带你看完!
人工智能博客(公众号ID:aibbtcom)整理,如有侵权请联系删除。0引言为了尊重原意,部分名词不进行翻译。为了更通俗易懂的解释概念,使用低维度的情况来解释。1机器学习概念1.1主要术语标签预测的事物,即y=ax+b中的y变量,如房价、动物种类、是否垃圾邮件等。特征输入变量,即y=ax+b中的x变量,x可以是一个,也可以是多个,用{x1,x2,...,xn}组成的向量来表示。比如电子邮件的文本字
aibbtcom
·
2018-03-21 14:21
人工智能
Coursera吴恩达
机器学习教程
笔记(一)
人工智能行业如火如荼,想要入门人工智能,吴恩达老师的机器学习课程绝对是不二之选(当然,这不是我说的,是广大网友共同认为的)教程的地址链接:Coursera吴恩达
机器学习教程
有的同学可能进不去这个网站,解决办法参照如下链接
Master_Cui
·
2018-03-18 14:08
机器学习教程
之 Boosting 与 bagging:集成学习框架
集成学习是机器学习算法中非常耀眼的一类方法,它通过训练多个基本的分类器(如支持向量机、神经网络、决策树等),再通过基本分类器的决策融合,构成一个完整的具有更强学习分辨能力的学习器。在集成学习中,那些基本学习器一般被称为为“弱学习器“,机器学习的目的就是通过集成众多的“弱学习器“使分类性能达到理想的“强学习器“的效果,从而避免构造复杂的强学习器。简而言之集成学习就是“三个臭皮匠顶一个诸葛亮“的道理主
Liangjun_Feng
·
2018-03-11 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 Boosting 与 bagging:集成学习框架
集成学习是机器学习算法中非常耀眼的一类方法,它通过训练多个基本的分类器(如支持向量机、神经网络、决策树等),再通过基本分类器的决策融合,构成一个完整的具有更强学习分辨能力的学习器。在集成学习中,那些基本学习器一般被称为为“弱学习器“,机器学习的目的就是通过集成众多的“弱学习器“使分类性能达到理想的“强学习器“的效果,从而避免构造复杂的强学习器。简而言之集成学习就是“三个臭皮匠顶一个诸葛亮“的道理主
Liangjun_Feng
·
2018-03-11 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 慢特征分析:时序特征挖掘
慢特征分析(slowfeatureanalysis,SFA)是wiskott在2002年的一篇论文里提出来的无监督学习方法,它可以从时间序列中提取变化缓慢的特征,被认为是学习时间序列最显著特征的一种方法。这里只讲述SFA应用于线性问题时的模型和解法,其对于非线性问题的应用,是基于线性模型并结合核函数来进行优化的。一.慢特征分析模型的数学描述首先,对于给定的原始时序特征u(t),我们有符号Δ(u)=
Liangjun_Feng
·
2018-02-24 00:00
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 支持向量机:模型篇4–核函数与非线性优化
支持向量机是机器学习领域里最强的几种分类器之一,被广泛的运用于各种分类回归问题,如果不考虑集成学习算法以及近几年出现的深度学习算法,支持向量机的性能可以说是在学习领域具有统治地位,在一些中小型的数据集上它的性能甚至能够超过一些深度学习网络。其基本原理相当简单,但是模型的求解和优化却十分复杂,很难描述清楚,这里我会一步一步,尽我所能分章节的将它总结完善模型篇·支持向量机:模型篇1–支持向量与间隔·支
Liangjun_Feng
·
2018-01-24 12:52
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 支持向量机:模型篇3–对偶问题的求解: SMO算法
支持向量机是机器学习领域里最强的几种分类器之一,被广泛的运用于各种分类回归问题,如果不考虑集成学习算法以及近几年出现的深度学习算法,支持向量机的性能可以说是在学习领域具有统治地位,在一些中小型的数据集上它的性能甚至能够超过一些深度学习网络。其基本原理相当简单,但是模型的求解和优化却十分复杂,很难描述清楚,这里我会一步一步,尽我所能分章节的将它总结完善模型篇·支持向量机:模型篇1–支持向量与间隔·支
Liangjun_Feng
·
2018-01-17 15:07
机器学习教程
人工智能的数理模型与优化
机器学习教程
二.在股票上的回归预测
这一篇算是实战篇,如果有对里面的步骤或者代码不是很明白,不用担心我们现在要做是知道机器学习的整个流程,心有余力可以查查资料,我会在后面一篇详细解释回归算法,下面我们将对股票价格利用线性回归和支持向量机两种算法构建我们的模型来预测。我们这篇博客将要学到内容包括:1,数据的预处理2,交叉验证3,构建我们的模型4,训练我们的模型5,完成我们的预测6,n_jobs的作用和如何选择我们的kernel上一篇教
会分析的小驼
·
2017-12-27 18:07
机器学习
机器学习教程
之 SKlearn 中 PCA 算法的运用:人脸识别实例
一.PCA原理简介关于主成分分析算法,即Principalconponentanalysis,PCA是数据分析与挖掘领域最常见也是最经典的降维方法。它通过对原数据的协方差矩阵进行广义特征值的求解,将原数据矩阵转化到另一组正交基空间(即特征向量空间)当中,在这一正交基空间中不同的维度具有不同权重,这一权重的大小对应相应的特征向量的特征值的大小,特征值越大,原数据在这一维度的重要性越大,即这一维度对于
Liangjun_Feng
·
2017-11-29 14:03
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 独立成分分析:PCA的高阶版
有好些天没写博客了,最近一直忙着在看论文,解模型,着实有点头痛。今天趁着又到周末了更一帖(其实是模型解不下去了…),这次来说一下一个在信号分析与数据挖掘领域颇为使实用的算法,独立成分分析(ICA),这个算法的求解方式会让人决定新奇而有所启发,可能会给你带来新的思路,这一篇算法已经有很多大神写过了,比如:http://blog.csdn.net/neal1991/article/details/45
Liangjun_Feng
·
2017-10-20 11:34
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 集成学习算法: 深入刨析AdaBoost
Boosting是一族可以将弱学习器提升为强学习器的算法。这族算法的工作机制类似:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多的关注,然后基于调整后的样本分布来训练下一个基学习器;如此重复进行,直至基学习器达到事先指定的值T,最终将这T个基学习器进行加权结合。Boosting族算法最著名的代表是AdaBoostADeci
Liangjun_Feng
·
2017-09-28 14:42
机器学习教程
人工智能的数理模型与优化
机器学习教程
之 集成学习算法: 深入刨析AdaBoost
Boosting是一族可以将弱学习器提升为强学习器的算法。这族算法的工作机制类似:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多的关注,然后基于调整后的样本分布来训练下一个基学习器;如此重复进行,直至基学习器达到事先指定的值T,最终将这T个基学习器进行加权结合。Boosting族算法最著名的代表是AdaBoostADeci
Liangjun_Feng
·
2017-09-28 00:00
机器学习教程
人工智能的数理模型与优化
Python
机器学习教程
百度云全集
接下来,最好的Python
机器学习教程
在这里将分享给大家。
千锋教育官方博客
·
2017-09-18 17:34
Python学习
Python
一起学Python
机器学习教程
之 人工神经网络的前世今生:标准BP神经网络原理
参考了一些书籍和博客,整理了关于神经网络的简单发展历史,给出BP神经网的计算原理与python3源码,供对相关领域感兴趣的小伙伴学习一、神经网络发展的沉浮二、BP神经网络算法原理三、BP神经网络算法python3实现一、神经网络发展的沉浮早在二十世纪四十年代M-P神经元模型、Hebb学习率等相关理论便发展起来,1949年神经心理学家Hebb出版《行为组织学》(OrganizationofBehav
Liangjun_Feng
·
2017-09-18 09:36
python
神经网络
算法
源码
bp神经网络
机器学习教程
人工智能的数理模型与优化
Python
机器学习教程
——逻辑回归
本教程介绍如何用Python的机器学习库scikit-learn去编写逻辑回归分类器。首先介绍一下IRIS数据集,IRIS数据集包含了150条花的数据,前4列是花的4个特征(feature),第五列是花的类别(label),下图展示了IRIS的特性,可以看出,选任意2个特征看(每个小图),都很难直接用简单的IF-ELSE语句用人工规则根据feature判断label。下面介绍如何用Python机器
ajaxhu
·
2017-09-03 12:08
机器学习
机器学习教程
之 线性模型:线性回归、对数几率回归、线性判别分析
常用的三个线性模型的原理及python实现——线性回归(LinearRegression)、对数几率回归(LogosticRegression)、线性判别分析(LinearDiscriminant)。这可能会是对线性模型介绍最全面的博客一、线性模型(LinearModel)二、线性回归(LinearRegression)三、对数几率回归(LogisticRegression)四、线性判别分析(Li
Liangjun_Feng
·
2017-08-31 22:20
机器学习教程
人工智能的数理模型与优化
机器学习教程
之1-感知器(Perceptron)的sklearn实现
0.概述优点:简单且易于实现缺点:1.感知器模型如果数据是线性可分的,并且是二分类的,则可以以下函数模型表示输入到输出的关系:2.感知器学习策略将所有误分点到超平面距离之和表示为代价函数:不考虑,得到感知器的代价函数:说明:李航的书用L(w,b)表示代价函数,而Ng教程用J()表示代价函数。3.感知器学习算法4.代码#@Author:TianzeTang#@Date:2017-07-10#@Ema
豆-Metcalf
·
2017-07-10 14:56
Python
机器学习
机器学习的sklearn实现
【机器学习】coursera学习笔记(一)
机器学习笔记(一)对应课程:coursera吴恩达《machinelearning》1-2讲参考:《斯坦福大学2014
机器学习教程
个人笔记》黄海广1.简介1.1定义一个程序被认为能从经验E中学习,解决任务
Mengwei_Ren
·
2017-06-15 21:00
机器学习
斯坦福大学
线性回归
监督学习
梯度下降算法
Core ML和Vision:iOS11中的
机器学习教程
机器学习是很火的,许多人只是听说过,但知之甚少。这篇iOS机器学习的教程将会介绍CoreML和Vison,这是iOS11中引入的的两个全新的框架。具体来说,将学习如何使用Places205-GoogLeNet模型将这些新API用于对图像的场景开始下载启动项目。他已经包含了显示图片的用户界面,并且可是让用户从照片库中选择另一张图片。所以你可以专注于实现应用程序的机器学习和视觉方面。编译并运行项目,你
i_belive
·
2017-06-12 15:34
Core ML 与 Vision:iOS 11
机器学习教程
这篇《iOS
机器学习教程
》会为你介绍CoreML和Vision,iOS11中推出的两个全新框架。具体来说,你会学习如何借助Places205-GoogLeN
张嘉夫
·
2017-06-10 12:41
机器学习教程
之3-逻辑回归(logistic regression)的sklearn实现
0.概述线性回归不仅可以做回归问题的处理,也可以通过与阈值的比较转化为分类的处理,但是其假设函数的输出范围没有限制,这样很大的输出被分类为1,较少的数也被分为1,这样就很奇怪。而逻辑回归的假设函数的输出范围是0~1。当数据集中含有误差点时,使用线性回归相应的误差也会很大。逻辑回归其实是分类算法,但是由于历史原因被称为逻辑回归。逻辑回归的假设函数以线性回归的假设函数为基础,通过S形函数进行复合形成的
豆-Metcalf
·
2017-04-29 23:04
机器学习
Python
机器学习的sklearn实现
机器学习
数据
预测
简明
机器学习教程
——实践篇(一):从感知机入手
有那么一段时间不出干货了,首页都要被每周歌词霸占了,再不写一点东西都要变成咸鱼了。进入正题。本篇教程的目标很明显,就是实践。进一步的来说,就是,当你学到了一些关于机器学习的知识后,怎样通过实践以加深对内容的理解。这里,我们从李航博士的《统计学习方法》的第2章感知机来做例子,由此引出大致的学习方法。需要注意的是,这篇教程并不是来介绍感知机模型的,而是用来说明如何学习并实践一个模型的,所以对感知机的解
garfielder007
·
2017-04-16 16:16
机器学习
【Stanford|斯坦福-机器学习:线性回归-单特征梯度下降+动态图】python3实现
概念:在吴恩达老师斯坦福
机器学习教程
第一讲,使用监督方法-线性回归建立模型,线性预估模型函数:设其中X0=1,则有:使用梯度下降方法计算参数θ:取得参数θ,即可使用线性回归模型预测数据。
怪众生太美丽
·
2016-11-28 14:57
机器学习
机器学习需要的线性代数知识
机器学习教程
一-不懂这些线性代数知识别说你是搞机器学习的数学是计算机技术的基础,线性代数是机器学习和深度学习的基础,了解数据知识最好的方法我觉得是理解概念,数学不只是上学时用来考试的,也是工作中必不可少的基础知识
Ezrealmore
·
2016-08-18 16:48
Google
机器学习教程
心得(二)决策树与可视化
VisualizingaDecisionTreeGoogleMachineLearningRecipes2官方中文博客http://chinagdg.org/2016/03/machine-learning-recipes-for-new-developers/视频地址http://v.youku.com/v_show/id_XMTUzNDE5Mzg0MA==.html?f=26979872&fr
u011453773
·
2016-05-14 16:00
机器学习
决策树
谷歌
可视化
Iris
Google 深度学习笔记
GoogleDeepLearningNotesGoogle深度学习笔记由于谷歌
机器学习教程
更新太慢,所以一边学习DeepLearning教程,经常总结是个好习惯,笔记目录奉上。
u011453773
·
2016-05-09 16:00
python
机器学习
教程
谷歌
深度学习
Google
机器学习教程
心得(三) 好的feature
什么造就好的FeatureGoogleMachineLearningRecipes3官方中文博客http://chinagdg.org/2016/03/machine-learning-recipes-for-new-developers/视频地址http://v.youku.com/v_show/id_XMTU1MDU5OTY2OA==.html?f=26979872&from=y1.2-3.4
u011453773
·
2016-05-03 20:00
python
机器学习
谷歌
柱状图
分类器
kaggle
机器学习教程
(Python实现)
kaggle上有个简单的
机器学习教程
,用的是Python,这篇文章尝试把其中的主要脉络梳理一下,如果你想要学习,还是推荐到网站上过一遍。
_bigPo
·
2016-05-02 20:42
机器学习
kaggle
kaggle
机器学习教程
(Python实现)
kaggle上有个简单的
机器学习教程
,用的是Python,这篇文章尝试把其中的主要脉络梳理一下,如果你想要学习,还是推荐到网站上过一遍。
firethelife
·
2016-05-02 20:00
机器学习
Kaggle
Google
机器学习教程
心得(一)
HelloworldGoogleMachineLearningRecipes1官方中文博客http://chinagdg.org/2016/03/machine-learning-recipes-for-new-developers/视频地址http://v.youku.com/v_show/id_XMTUxODA1NTY3Mg==.htmlGithub工程地址https://github.com
u011453773
·
2016-05-01 13:00
python
机器学习
谷歌
scikit
分类器
Spark 云计算 ML
机器学习教程
以及 SPARK使用教程
sparkCore的使用基础知识 rdd为spark的一个分布式数据源的计算的抽象 sparkContext为spark环境上下文用于保持集群连接,创建RDD并行数据accumularboardcast变量用户创建sparkjob作业 SparkConf conf = new SparkConf().setAppName("indeximage").setMaster("local")
zhuyuping
·
2016-04-04 01:00
spark
Mlib
关于正规方程求解线性回规问题中的最终的值θ
我是初学者,最近在看https://www.coursera.org上的
机器学习教程
,学到利用正规方程求解的时候有一处地方一直不理解,那就是式中得出的值θ,我想:常数θ应该有很多个才对啊,例如:θ0,θ1
gergul
·
2016-03-02 11:35
经验
卷积神经网络初探 | 数据科学家联盟 http://dataunion.org/20942.html
转载自:卷积神经网络初探|数据科学家联盟http://dataunion.org/20942.html前言目前为止我已经完整地学完了三个
机器学习教程
:包括“StanfordCS229”,”MachineLearningonCoursrea
qq_26898461
·
2016-01-05 16:00
卷积神经网络初探
前言目前为止我已经完整地学完了三个
机器学习教程
:包括“StanfordCS229”,"MachineLearningonCoursrea"和"StanfordUFLDL",卷积神经网络是其中最抽象的概念
Lee的白板报
·
2015-12-24 16:00
深度学习
卷积神经网络
池化
pooling
Hacker's guide to Neural Networks
斯坦福深度学习博士AndrejKarpathy写了一篇实战版本的深度学习及
机器学习教程
,手把手教你用Javascript写神经网络和SVM!!我还没怎么看。。。
c__ilikeyouma
·
2014-11-15 22:00
learning
machine
BP神经网络的C代码分析
JeremyLin具体的原理性资料可以参考:[1] BP神经网络解析 地址[2]TomM.Mitchell
机器学习教程
地址BP网络算法流程:从上面的算法流程可以看出来,BP神经网络的步骤并不多
Linoi
·
2014-11-01 17:00
c
神经网络
BP
LinJM
发现国外视频教程网站
另外,在youtube上搜索stanfordmachinelearning,可以看到stanford的
机器学习教程
!
·
2008-09-24 00:00
教程
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他