机器学习和书籍入门

转载于:KDnuggets

目的:初学者,共同学习

具体网址为:https://www.kdnuggets.com/2017/10/top-10-machine-learning-algorithms-beginners.html/2

一,导言

哈佛商业评论”这篇文章称“数据科学家”是“21世纪最性感的工作”,对ML算法的研究已经获得了巨大的推动。所以,对于那些ML开始的人来说,我们决定重启一下我们非常流行的Gold博客10算法机器学习工程师需要知道- 尽管这篇文章是针对初学者。

ML算法是那些可以从数据中学习并从经验中改进的算法,无需人工干预。学习任务可能包括学习将输入映射到输出的函数,在未标记的数据中学习隐藏的结构; 或者“基于实例的学习”,其中通过将新实例(行)与来自存储在存储器中的训练数据的实例进行比较来为新实例生成类标签。“基于实例的学习”不会创建具体实例的抽象。


II。ML算法的类型

有三种ML算法:

1.监督学习:

监督学习可以解释如下:使用标记的训练数据来学习从输入变量(X)到输出变量(Y)的映射函数。

Y = f(X)

监督学习问题可以有两种类型:

一个。分类:预测输出变量处于类别形式的给定样本的结果。例子包括男性和女性,病态和健康等标签。

湾 回归:预测输出变量为实值形式的给定样本的结果。例子包括表示降雨量和人的身高的实值标签。

我们在这篇博客中介绍的前5个算法 - 线性回归,Logistic回归,CART,朴素贝叶斯,KNN是监督学习的例子。

合奏是一种监督学习。这意味着结合多个不同弱ML模型的预测来预测新的样本。我们覆盖的算法9-10 - 随机森林套袋,XGBoost增强是集合技术的例子。

2.无监督学习:

无监督学习问题只有输入变量(X),但没有相应的输出变量。它使用无标签的训练数据来模拟数据的基本结构。

无监督学习问题可以有两种类型:

一个。关联:发现集合中项目共现的概率。它广泛用于市场篮子分析。例如:如果顾客购买面包,他有80%的可能购买鸡蛋。

湾 群集:对样本进行分组,使得同一个群集内的对象彼此之间的关系比来自另一个群集中的对象更为相似。

C。维度降低:正如其名称,维度降低意味着减少数据集的变量数量,同时确保重要的信息仍然传达。可以使用特征提取方法和特征选择方法来完成维度降低。特征选择选择原始变量的一个子集。特征提取执行从高维空间到低维空间的数据转换。例如:PCA算法是一种特征提取方法。

我们在这里介绍的算法6-8是Apriori,K-means,PCA是无监督学习的例子。

3.强化学习:

强化学习是一种机器学习算法,它允许代理根据其当前状态决定最佳的下一个动作,通过学习将最大化奖励的行为。

强化算法通常通过反复试验来学习最佳行为。它们通常用于机器人 - 机器人可以通过在碰到障碍物后接收负面反馈来学习避免碰撞,以及在视频游戏中 - 反复试验显示特定动作可以激发玩家的奖励。代理人然后可以使用这些奖励来了解游戏的最佳状态并选择下一个动作。


III。量化ML算法的流行度

这些

调查报告对10种最流行的数据挖掘算法进行了量化。但是,这样的清单是主观的,就像在引用的文件中那样,被调查参与者的样本规模非常狭窄,由数据挖掘的高级从业人员组成。受访者是ACM KDD创新奖,IEEE ICDM研究贡献奖的获奖者; KDD-06,ICDM'06和SDM'06的计划委员会成员; 和ICDM'06的145名与会者。

本博客中排名前十的算法适用于初学者,主要是我在孟买大学计算机工程学士学位期间从“数据仓库与挖掘”(DWM)课程中学到的。DWM课程是对ML算法领域的一个很好的介绍。我特别把最后两个算法(集合方法)包括在他们的流行的基础上,以赢得Kaggle比赛。希望你喜欢这篇文章!


IV。监督学习算法

1.

线性回归

在ML中,我们有一组输入变量(x)用于确定输出变量(y)。输入变量和输出变量之间存在关系。ML的目标是量化这种关系。

图1:线性回归表示为y = a + bx形式的线。资源

在线性回归中,输入变量(x)和输出变量(y)之间的关系表示为形式为y = a + bx的方程。因此,线性回归的目标是找出系数a和b的值。这里,a是截距,b是线的斜率。

图1显示了数据集的绘制的x和y值。目标是拟合最接近大部分点的线。这将减少数据点的y值和行之间的距离('错误')。

2. Logistic

回归

线性回归预测是连续的值(以cm为单位的降雨量),逻辑回归预测是在应用变换函数之后的离散值(不管学生是否通过/失败)。

逻辑回归最适用于二元分类(数据集中y = 0或1,其中1表示默认类)。例如:在预测事件是否发生时,发生的事件被分类为1.在预测人会生病或不生病,生病的实例记为1)。它是以其中使用的变换函数命名的,称为逻辑函数h(x)= 1 /(1 + e ^ x),它是一个S形曲线。

在逻辑回归中,输出是以默认类的概率形式出现的(不同于直接生成输出的线性回归)。由于这是一个概率,所以输出位于0-1的范围内。输出(y值)通过对数转换x值,使用对数函数h(x)= 1 /(1 + e ^ -x)来生成。然后应用阈值将该概率强制为二元分类。

图2:Logistic回归用于确定肿瘤是恶性还是良性的。如果概率h(x)> = 0.5,则分类为恶性。资源

在图2中,为了确定肿瘤是否是恶性的,默认变量是y = 1(肿瘤=恶性); x变量可以是肿瘤的量度,例如肿瘤的大小。如图所示,逻辑函数将数据集的各种实例的x值转换为0至1的范围。如果该概率跨越阈值0.5(由水平线示出),则将肿瘤分类如恶性。

逻辑回归方程P(x)= e ^(b0 + b1 * x)/(1 + e ^(b0 + b1 * x))可以转化为ln(p(x)/ 1-p = b0 + b1* x

逻辑回归的目标是使用训练数据来找到系数b0和b1的值,以使预测结果与实际结果之间的误差最小化。这些系数是使用最大似然估计技术估计的。

3. CART

分类和回归树(CART)是决策树的一个实现,其中包括ID3,C4.5等。

非终端节点是根节点和内部节点。终端节点是叶节点。每个非终端节点表示一个输入变量(x)和该变量上的分裂点; 叶节点表示输出变量(y)。该模型用于进行预测:漫游树的分裂以到达叶节点并输出叶节点处存在的值。

图3中的决策树根据他们的年龄和婚姻状况分类了一个人是否会购买跑车或小型货车。如果这个人超过30年,而且还没有结婚,我们走树的过程如下:“超过30年?” - >是 - >'已婚? - >不。因此,该模型输出一个跑车。


另外的资料如下  百度网盘下载如下

具体的资料下载如下(包含大数据,证券从业,ios开发,安卓开发,人工智能所有领域):或者微信(1223231767)询问


机器学习资料:

https://pan.baidu.com/s/1-spSLL21_wK9kEBtTjqxpA

ios开发资料:

https://pan.baidu.com/s/1-pVEJd1AbXLDjq_EL94bCg

百度网盘 (安卓开发下载) 密码联系微信:

https://pan.baidu.com/s/1paGNqCQRwQeJfT_KSc4w8g

证券从业资料:

https://pan.baidu.com/s/1gdtMW9MPrIPiaZLIcLDXyw

hadoop资料:

https://pan.baidu.com/s/1Dzyi7IrA3S1avHAacFiaMQ

面试资料说明 (图片说明):

https://pan.baidu.com/s/1E4ndCVrW7EyNxf1ybX7Jkw

ios 资料

https://pan.baidu.com/s/1IjHxLnBePEdDQZiKkhjpDQ

前端资料:

https://github.com/guojiajia09/MobileDev/tree/master/GitForH5

所有面试资料c++,数据结构

https://pan.baidu.com/s/1DfcSIEYx0_miHTA4nt9G8Q

github网址:

https://github.com/guojiajia09/MobileDev/blob/master/ml


并且有其他资料(机器学习,证券从业,安卓开发,大数据)联系微信1223231767

具体

你可能感兴趣的:(机器学习和书籍入门)