ML学习笔记第三周(三):多分类问题

1 一对多算法(One-vs-all)

1.1 多分类问题举例

ML学习笔记第三周(三):多分类问题_第1张图片

1.2 算法解释

二分类问题上一篇博客讲了逻辑分类算法,将训练样本分为positive和negative;如果说,有超过3个类别,我们需要做的就是,分别将类别1、2、3作为positive,其余的两个类别作为negative(23、13、12),这样我们就可以得到3个假设函数(分类器) h θ ( i ) ( x ) , ( i = 1 , 2 , 3 ) h^{(i)}_\theta(x),(i=1,2,3) hθ(i)(x)i=1,2,3.
ML学习笔记第三周(三):多分类问题_第2张图片
关于假设函数 h θ ( i ) ( x ) , ( i = 1 , 2 , 3 ) h^{(i)}_\theta(x),(i=1,2,3) hθ(i)(x)i=1,2,3.的数学意义,之前已经提到过,是在给定训练集 x x x和参数 θ \theta θ下, y = i y=i y=i的概率。当再次输入新样本 x x x时,我们就可以分别代入3个假设函数 h θ ( i ) ( x ) , ( i = 1 , 2 , 3 ) h^{(i)}_\theta(x),(i=1,2,3) hθ(i)(x)i=1,2,3中,进而计算其概率,概率最大的那个类别,就是它最可能的类别,即此时可信度最高。
ML学习笔记第三周(三):多分类问题_第3张图片
ML学习笔记第三周(三):多分类问题_第4张图片

2 参考资料

1、吴恩达机器学习笔记-Logistic回归模型
2、机器学习-第三周

你可能感兴趣的:(机器学习)