(DataWhale组队学习)集成学习之机器学习基础——机器学习三大主要任务

有监督学习和无监督学习的区别

有监督学习:对具有标记的训练样本进行学习,以尽可能对训练样本集外的数据进行分类预测。
常用的方法有线性回归(LR),支持向量机(SVM),置信度传播(BP),随机森林(RF),梯度提升迭代决策树( GBDT)
无监督学习:对未标记的样本进行训练学习,并发现这些样本中的结构知识。
常用方法K均值聚类(KMeans),深度学习 (DL)。

回归和分类(有监督学习)

回归:因变量是连续型变量,如:房价,体重等。
分类:因变量是离散型变量,如:是否患癌症,西瓜是好瓜还是坏瓜等。

分类与回归的区别:
本质都是对输入做出预测,并且都是监督学习。
1)分类问题输出的是物体所属的类别,是离散的、定性的。回归问题输出的是物体的值,是连续的、定量的。
2)分类的目的是为了寻找决策边界,即分类算法得到是一个决策面,用于对数据集中的数据进行分类。回归的目的是为了找到最优拟合,通过回归算法得到是一个最优拟合线,这个线条可以最好的接近数据集中的各个点。
3)本质上损失函数不同。
4)分类非黑即白,最终结果只有一个。回归是一种逼近预测,当预测值与真实值相近时,误差较小时,是一个好的回归。

参考资料:

DataWhale集成学习资料:只需看1.1, 1.2, 1.3部分
有监督学习和无监督学习的区别
【机器学习小常识】“分类” 与 “回归”的概念及区别详解

你可能感兴趣的:(人工智能)