MLlib-分类与回归

MLlib支持二分类,多酚类和回归分析的多种方法,具体如下:

问题类别   支持方法
二分类 线性支持向量机, 逻辑回归,决策树,朴素贝叶斯
多分类 决策树,朴素贝叶斯
回归 线性最小二乘,Lasso,ridge regression, 决策树

 

 

 

 

  • 线性模型
    • 二分类(支持向量机, 逻辑回归)
    • 线性回归(最小二乘,Lasso, ridge)
  • 决策树
  • 朴素贝叶斯

 

线性模型

  • 数学公式
    • 损失函数
    • 正则化
    • 最优化
  • 二分类
    • 线性支持向量机
    • 逻辑回归
    • 评价矩阵
    • 例子
  • 线性最小二乘,Lasso,ridgeregression
    • 例子
  • 流式线性回归
    • 例子
  • 执行(开发者)

 

数学公式

 

损失函数

 

正则化

 

最优化

 

二分类

二分类问题的目的是将项目分成两个类别:正例和负例。MLlib支持两种二分类方法:线性支持向量机和逻辑回归。这两种方法都支持L1和L2两种正则变量。训练数据表示为MLlib的LabeledPoint格式。注意:在数学公式中,训练标记y表示为+1(正例)或-1(负例),是为了方便公式表示。然而,在MLlib为了兼容多分类情况,负例用0表示,而不是-1.

线性支持向量机(SVMs)

 线性支持向量机是一种大规模分类问题的标准方法。线性表示如下

\(L(w;x,y):=\max\{0, 1-yw^{T}x\}\)

默认,使用L2正则化。L1为可选。这样,问题编程了一个线性程序。

线性SVM算法输出一个SVM模型。给定一个新数据点,用\(x\)表示,模型根据\(w^{T}x\)的值做预测。默认,如果\(w^{T}x \geq 0\)输出为正值,否则为负值。

逻辑回归

 逻辑回归广泛用于二只问题。线性表示如下,使用logistic损失函数:

\( L(w;x,y) := log(1+ exp(-yw^{T}x)) \)

逻辑回归算法输出一个逻辑回归模型。给定一个新数据点,用\(x\)表示,模型将使用下面的损失函数做出预测

\( f(z)=\frac{1}{1+e^{-z}} \)

这里 \( z=w^{T}x \).默认,如果 \( f(w^{T}x) > 0.5 \),输出为正,反之为负。和线性SVM不不同,逻辑回归模型的原始输出,\( f(z) \),有一种概率解释(例如;\(x\)为正的概率)

评价矩阵

 MLlib支持常用的二分类评价矩阵(PySpark不支持)。包括准确率,召回率,F值,receiver operating characteristic(ROC),准确率召回率曲线,和area under the curvers(AUC)。AUC是一种常用的模型性能比较方法,用于帮助用户通过准确率/召回率/F值来选择预测阈值(http://www.douban.com/note/284051363/?type=like)。

例子

 下面的代码展示了如果如何加载一个简单的数据集,使用算法对象object上的静态方法训练数据,并且使用结果模型做出预测并计算训练错误率。

import org.apache.spark._

import org.apache.spark.mllib.classification.SVMWithSGD

import org.apache.spark.mllib.evaluation.BinaryClassificationMetrics

import org.apache.spark.mllib.util.MLUtils



/**

 * Created by ******qin on 2015-1-13.

 */

object ClassifySVM {

  def main (args: Array[String]) {

    val conf = new SparkConf().setAppName("classifySVM")

    val sc = new SparkContext(conf)

    //load training data in LibSVM format

    val data = MLUtils.loadLibSVMFile(sc, args(0)) // args(0)



    println(data.count())



    //split data into training and test(6:4)

    val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L)

    val training = splits(0).cache()

    val test = splits(1)



    //run training algorithm to build the model

    val numIterations = 100

    val model = SVMWithSGD.train(training, numIterations)



    //clean the default threshold

    model.clearThreshold()



    //compute raw scores on the test set

    val scoreAndLabels = test.map { point =>

      val score = model.predict(point.features)

      (score, point.label)

    }



    //get evaluation metrics

    val metrics = new BinaryClassificationMetrics(scoreAndLabels)

    val auROC = metrics.areaUnderROC()



    println("Area under ROC = " + auROC)

  }

}

 SVMWithSGD.train()默认使用L2正则化,参数为1.0. 如果想定制该算法,可以直接创建一个SVMWithSGD对象并调用setter方法即可。MLlib中其他所有算法也支持使用这种方法进行定制。例如,下面的算法SVM算法使用L1正则化参数为1.0,循环次数为200.

    //the SVMWithSGD with L1

    val svmAlg = new SVMWithSGD()

    svmAlg.optimizer.setNumIterations(200)

    .setRegParam(1.0)

    .setUpdater(new L1Updater)

    val model = svmAlg.run(training)

LogisticRegressionWithSGD和SVMWithSGD使用方法相似。

线性最小二乘,Lasso,ridge regression

线性最小二乘法是回归问题最常用的解法。线性表示如下,使用平方损失函数

\( L(w;x,y):=\frac{1}{2}(w^Tx-y)^2 \)

根据使用的正则化方法的不同,各种回归方法被分为:普通最小二乘或线性最小二乘(不使用正则化);岭回归(使用L2正则化);和Lasso(使用L1正则化)。所有的方法都是用平均错误率或训练错误率,\( \frac{1}{n}\sum_{i=1}^{n}(w^Tx_i-y_i)^2 \),即均方差错误率。

例子

下面的例子描绘了如何加载训练数据,解析数据成为LabeledPoint的RDD格式。之后使用LinearRegressionWithSGD建立简单的线性模型去预测标签值。然后计算均方差错误率评价结果。

 

 

 

流式线性回归

数据以流的方式到达,就需要用到在线的修正回归模型,在新数据到达时更新模型参数。MLlib使用普通最小二乘支持流式数据。修正和离线执行是相似的,对每批数据进行修正,这样模型就可以针对数据流进行连续更新。

例子

下面的例子描述了如何加载数据,测试来自两个不同文本文件流的数据,将流解析为标记点,使用第一个流修正一个在线线性回归模型,用第二个流进行预测

 

你可能感兴趣的:(lib)