A tour of the Top 10 algorithm s for ML newbies

本文系转载 机器之心 博文:A-tour-of-the-top-10-algorithms-for-machine-learning-newbies
机器之心是一个非常优秀的人工智能领域公众号,推荐关注。
侵删。

0

这已经不止是第一次看这种Intro类型的文章了。之前在presentation前也简单学习过。
但是对算法真正的理解需要实践
自勉。

1

本文介绍了十个基础但重要的机器学习算法:

    1. 线性回归
      y = B0 + B1 * x
      我们将根据输入 x 预测 y,线性回归学习算法的目标是找到系数 B0 和 B1 的值。
      可以使用不同的技术从数据中学习线性回归模型,例如用于普通最小二乘法和梯度下降优化的线性代数解。
    1. Logistic 回归
      机器学习从统计学中借鉴的另一种技术。它是解决二分类问题的首选方法。
    1. 线性判别分析(LDA)
      Logistic 回归是一种分类算法,传统上,它仅限于只有两类的分类问题。
      如果你有两个以上的类别,那么线性判别分析是首选的线性分类技术。
      进行预测的方法是计算每个类别的判别值并对具备最大值的类别进行预测。该技术假设数据呈高斯分布(钟形曲线),因此最好预先从数据中删除异常值。这是处理分类预测建模问题的一种简单而强大的方法。
    1. 分类与回归树
      预测建模机器学习的一种重要算法。
      决策树的叶节点包含一个用于预测的输出变量 y。通过遍历该树的分割点,直到到达一个叶节点并输出该节点的类别值就可以作出预测。(leaf: output - category. )
      决策树学习速度和预测速度都很快。它们还可以解决大量问题,并且不需要对数据做特别准备。
  • 朴素贝叶斯
    同 预测建模算法。
    该模型由两种概率组成:
    1)每个类别的概率;
    2)给定每个 x 的值,每个类别的条件概率。
    这两种概率都可以直接从训练数据中计算出来。一旦计算出来,概率模型可用于使用贝叶斯定理对新数据进行预测。当你的数据是实值时,通常假设一个高斯分布(钟形曲线),这样你可以简单的估计这些概率。
    假设每个输入变量是独立的——"朴素"。
  • K 近邻算法KNN
    需要大量内存或空间来存储所有数据,但是只有在需要预测时才执行计算(或学习)。你还可以随时更新和管理训练实例,以保持预测的准确性。
    距离或紧密性的概念可能在非常高的维度(很多输入变量)中会瓦解——维数灾难——只使用与 预测输出变量 最相关 的输入变量。

    1. 学习向量量化
      LVQ——码本向量 集合——开始时随机选择,并逐渐调整 以在学习算法的多次迭代中最好地总结训练数据集。
    1. 支持向量机(SVM)
    1. Bagging 和随机森林
      在機器學習中,隨機森林是一個包含多個決策樹的分類器,並且其輸出的類別是由個別樹輸出的類別的眾數而定
    1. Boosting 和 AdaBoost
      模型采用的样本逐步调整提升?
      AdaBoost,是英文"Adaptive Boosting"(自适应增强)的缩写,由Yoav Freund和Robert Schapire在1995年提出。
      它的自适应在于:前一个基本分类器分错的样本会得到加强,加权后的全体样本再次被用来训练下一个基本分类器。同时,在每一轮中加入一个新的弱分类器,直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数。
      Adaboost 算法的原理与推导

总结

初学者在面对各种机器学习算法时经常问:「我应该用哪个算法?」这个问题的答案取决于很多因素,包括:(1)数据的大小、质量和特性;(2)可用的计算时间;(3)任务的紧迫性;(4)你想用这些数据做什么。

即使是经验丰富的数据科学家在尝试不同的算法之前,也无法分辨哪种算法会表现最好。虽然还有很多其他的机器学习算法,但本篇文章中讨论的是最受欢迎的算法。如果你是机器学习的新手,这将是一个很好的学习起点。

你可能感兴趣的:(A tour of the Top 10 algorithm s for ML newbies)