机器学习是什么?
给计算机编程,让它拥有自我学习的能力。通过大量的数据对模型进行调整,使其拥有作出决断的能力。
监督学习是什么?
其基本思想是,数据集中的每个样本都有相应的“正确答案”。让机器学习这些答案,对自己的模型进行调整进行拟合,再根据这些样本作出预测,
无监督学习是什么?
不同于监督学习的数据的样子,即无监督学习中没有任何的标签或者是有相同的标签或者就是没标签。一般用于归类。聚类算法
分类问题
在分类问题中,要预测的变量是离散的值。我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们也谈到了肿瘤分类问题的例子,区别一个肿瘤是恶性的还是良性的。
如果我们要用线性回归算法来解决一个分类问题,对于分类,取值为0或者1,但如果你使用的是线性回归,那么假设函数的输出值可能远大于1,或者远小于0,即使所有训练样本的标签都等于0或1。尽管我们知道标签应该取值0或者1,但是如果算法得到的值远大于1或者远小于0的话,就会感觉很奇怪。所以我们在接下来的要研究的算法就叫做逻辑回归算法,这个算法的性质是:它的输出值永远在0到1之间。逻辑回归算法是分类算法,我们将它作为分类算法使用。
分类算法细节
我们希望输出的值在0到1中间,因此我们的这个函数的值域应该在0到1之间。当ℎ()>=0.5时,预测=1。当ℎ()<0.5时,预测=0。这是一种归类方式。但事实上使用线性回归一般并不合适,一般我们使用sigmoid函数,因为它可以强制值域在0到1之间。
代价函数
对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。逻辑回归理论上也可以使用所有模型误差的平方和,但会得到非凸函数,会有多个极小值,会影响梯度下降算法寻找全局最小值。我们重新构建代价函数:
多类别分类:一对多
假如说现在需要一个学习算法能自动地将邮件归类到不同的文件夹里。那么,你也许需要一些不同的文件夹,或者不同的标签来完成这件事,来区分开来自工作的邮件、来自朋友的邮件、来自家人的邮件或者是有关兴趣爱好的邮件,那么,我们就有了这样一个分类问题:其类别有四个,分别用=1、=2、=3、=4来代表。
我们有了这样的问题,那么如何进行分类呢?
我们在预测的时候不是将所有的类别直接分辨出来,而是一次只分辨一个类别,每一次分辨称为一个分类机。即我们要分辨的是一个类别,其他的是另一个类别。在我们需要做预测时,我们将所有的分类机都运行一遍,然后对每一个输入变量,都选择最高可能性的输出变量。
我们要做的就是在我们的分类器中输入,然后我们选择一个让ℎ()()最大的,即maxℎ()()。
哪一个分类器是可信度最高效果最好的,那么就可认为得到一个正确的分类,无论值是多少,我们都有最高的概率值,我们预测就是那个值。这就是多类别分类问题