1、KNN和kmeans聚类有什么区别?
这两种算法的本质区别是,kmeans本质上是无监督的,而KNN本质上是有监督的 。kmeans是一种聚类算法,而KNN是分类算法。
2、机器学习中什么时候需要正则化?
当模型显示出过拟合/欠拟合时,就需要正则化。正则化引入了成本项,用于为目标函数带来更多特征。正则化试图将许多变量的系数变为0,从而减少成本项。这有助于降低模型复杂度,使模型的泛化能力更好。
3、常见的机器学习方法(https://zhuanlan.zhihu.com/p/31711537)
当前的「三大」最常见的机器学习任务:
回归(Regression)
分类(Classification)
聚类(Clustering)
两大数据降维(Dimensionality Reduction)问题:
特征选取(Feature Selection)
特征提取(Feature Extraction)
1.回归
回归是一种用于连续型数值变量预测和建模的监督学习算法,特征是具有数值型目标变量的标注数据集,即一个用以监督算法的观察样本,都有一个数值型真值。
1.1(正则化)线性回归
1.2 回归树(集成方法)
1.3 深度学习
1.4 荣誉奖:最近邻算法
2. 分类
分类是一种用于分类变量建模及预测的监督学习算法,正如你所见,许多回归算法都有其对应的分类形式,分类算法往往适用于类别(或其可能性)的预测,而非数值。
2.1 (正则化)逻辑回归
2.2 分类树(集成方法)
2.3 深度学习
2.4 支持向量机
2.5 朴素贝叶斯
3.聚类
聚类是基于数据内部结构来寻找样本自然族群(集群)的无监督学习任务,由于聚类属于无监督学习,也就不会输出“正确的答案”,评价结果时往往要用到数据可视化。如果你需要“正确的答案”,亦即训练集中存在预标注的集群,那么用分类算法会更加合适。
K 均值
3.1 K均值
3.2 仿射传播
3.3 分层 / 层次
3.4 DBSCAN
维度灾难
在机器学习领域,“维度(Dimensionality)”通常指数据集中的特征数量(即输入变量的个数)。
当特征的个数特别大的时候(相对于数据集中观测样本的数量来说),训练出一个有效的模型,对算法要求就会特别高(即,用现有的算法训练出一个有效的模型特别困难)。这就是所谓的“维度灾难(Curse of Dimensionality)”,特别是对依赖于距离计算的聚类算法而言。
对于“维度灾难”,有位 Quora 用户给出了一个非常好的类比:
假设有一条100码的直线,而你在该直线的某处掉了一枚硬币。要找回硬币并不难,你只需沿着这条线走就行了,最多花上你2分钟时间。
然后,假设有一个长和宽都是100码的广场,而你是把硬币掉在广场的某个位置。现在再想找回它,可就不容易了,这好比在两个并排的足球场中找针,可能会耗上你几天时间。
再然后,假设是一个长、宽、高都是100码的立方体,那就好比是在30层楼高的大型体育场内找针……
随着维度的增加,在空间中搜索的难度也会变得愈加困难。
这就需要数据降维的办法:特征选取和特征提取。
4. 特征选取
特征选取是从你的数据集中过滤掉不相关或冗余的特征。特征选取与特征提取的关键区别在于:特征选取是从原特征集中选取一个子特征集,而特称提取则是在原特征集的基础上重新构造出一些(一个或多个)全新的特征。
需要注意的是,某些监督式机器学习算法已经具备了内在的特征选取机制:比如正则回归与随机森林。通常,我们是建议一开始优先尝试这些算法,如果它们能匹配上你的问题的话。对此我们已经做过介绍。
作为独立的任务,特征选取既可以是非监督式的(如方差阈值),又可以是监督式的(比遗传算法)。有必要的话,你还可以把多种方法以某种合理的方式整合在一起。
4.1 方差阈值
4.2 相关性阈值
4.3 遗传算法
4.4 荣誉奖:逐步搜索
5.特征提取
特征提取是用来创造一个新的、较小的特征集,但仍能保留绝大部分有用的信息。值得再提的是,特征选取是用来保留原始特征集中的一部分子特征集,而特征提取则是创造全新的特征集。
作为独立的任务,特征提取可以是非监督式的(如主成分分析)或监督式的(如线性判别分析)。
5.1 主成分分析
5.2 线性判别分析
5.3 自编码机
4、什么是机器学习
机器学习的三要素:数据、算法、模型
机器学习研究的是从数据中通过选取合适的算法,自动的归纳逻辑或规则,并根据这个归纳的结果(模型)与新数据来进行预测。
5、怎么评价一个模型的好坏?
(1)测试集、交叉验证集和测试集
(2) 偏差、方差与学习曲线
偏差和方差时有冲突的,偏差(反映模型的拟合能力、复杂程度),方差(刻画了数据扰动所造成的影响)。如果模型训练程度不足,则偏差bias主导泛化错误率;如果过拟合,数据的轻微扰动会对错误率造成很大影响,也就是学到了非全局的特性。
(3)……
6、了解正则化么?
正则化是针对过拟合而提出的,以为在求解模型最优的是一般优化最小的经验风险,现在在该经验风险上加入模型复杂度这一项(正则化项是模型参数向量的范数),并使用一个rate比率来权衡模型复杂度与以往经验风险的权重,如果模型复杂度越高,结构化的经验风险会越大,现在的目标就变为了结构经验风险的最优化,可以防止模型训练过度复杂,有效的降低过拟合的风险。
奥卡姆剃刀原理,能够很好的解释已知数据并且十分简单才是最好的模型。
7、L1和L2的作用和区别?
作用:降低模型复杂度,得到更小的泛化误差,降低过拟合程度。
区别:L1正则化就是在loss function后边所加正则项为L1范数,加上L1范数容易得到稀疏解(0比较多)。L2正则化就是loss function后边所加正则项为L2范数的平方,加上L2正则相比于L1正则来说,得到的解比较平滑(不是稀疏),但是同样能够保证解中接近于0(但不是等于0,所以相对平滑)的维度比较多,降低模型的复杂度。
8、简单说下有监督学习和无监督学习的区别?
有监督学习:对具有标记的训练样本进行学习,以尽可能对训练样本集外的数据进行分类预测。(LR,SVM,BP,RF,GBDT)
无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。(KMeans,DL)