MLlib支持二分类,多酚类和回归分析的多种方法,具体如下:
问题类别 | 支持方法 |
二分类 | 线性支持向量机, 逻辑回归,决策树,朴素贝叶斯 |
多分类 | 决策树,朴素贝叶斯 |
回归 | 线性最小二乘,Lasso,ridge regression, 决策树 |
二分类问题的目的是将项目分成两个类别:正例和负例。MLlib支持两种二分类方法:线性支持向量机和逻辑回归。这两种方法都支持L1和L2两种正则变量。训练数据表示为MLlib的LabeledPoint格式。注意:在数学公式中,训练标记y表示为+1(正例)或-1(负例),是为了方便公式表示。然而,在MLlib为了兼容多分类情况,负例用0表示,而不是-1.
线性支持向量机是一种大规模分类问题的标准方法。线性表示如下
\(L(w;x,y):=\max\{0, 1-yw^{T}x\}\)
默认,使用L2正则化。L1为可选。这样,问题编程了一个线性程序。
线性SVM算法输出一个SVM模型。给定一个新数据点,用\(x\)表示,模型根据\(w^{T}x\)的值做预测。默认,如果\(w^{T}x \geq 0\)输出为正值,否则为负值。
逻辑回归广泛用于二只问题。线性表示如下,使用logistic损失函数:
\( L(w;x,y) := log(1+ exp(-yw^{T}x)) \)
逻辑回归算法输出一个逻辑回归模型。给定一个新数据点,用\(x\)表示,模型将使用下面的损失函数做出预测
\( f(z)=\frac{1}{1+e^{-z}} \)
这里 \( z=w^{T}x \).默认,如果 \( f(w^{T}x) > 0.5 \),输出为正,反之为负。和线性SVM不不同,逻辑回归模型的原始输出,\( f(z) \),有一种概率解释(例如;\(x\)为正的概率)
MLlib支持常用的二分类评价矩阵(PySpark不支持)。包括准确率,召回率,F值,receiver operating characteristic(ROC),准确率召回率曲线,和area under the curvers(AUC)。AUC是一种常用的模型性能比较方法,用于帮助用户通过准确率/召回率/F值来选择预测阈值(http://www.douban.com/note/284051363/?type=like)。
下面的代码展示了如果如何加载一个简单的数据集,使用算法对象object上的静态方法训练数据,并且使用结果模型做出预测并计算训练错误率。
import org.apache.spark._ import org.apache.spark.mllib.classification.SVMWithSGD import org.apache.spark.mllib.evaluation.BinaryClassificationMetrics import org.apache.spark.mllib.util.MLUtils /** * Created by ******qin on 2015-1-13. */ object ClassifySVM { def main (args: Array[String]) { val conf = new SparkConf().setAppName("classifySVM") val sc = new SparkContext(conf) //load training data in LibSVM format val data = MLUtils.loadLibSVMFile(sc, args(0)) // args(0) println(data.count()) //split data into training and test(6:4) val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L) val training = splits(0).cache() val test = splits(1) //run training algorithm to build the model val numIterations = 100 val model = SVMWithSGD.train(training, numIterations) //clean the default threshold model.clearThreshold() //compute raw scores on the test set val scoreAndLabels = test.map { point => val score = model.predict(point.features) (score, point.label) } //get evaluation metrics val metrics = new BinaryClassificationMetrics(scoreAndLabels) val auROC = metrics.areaUnderROC() println("Area under ROC = " + auROC) } }
SVMWithSGD.train()默认使用L2正则化,参数为1.0. 如果想定制该算法,可以直接创建一个SVMWithSGD对象并调用setter方法即可。MLlib中其他所有算法也支持使用这种方法进行定制。例如,下面的算法SVM算法使用L1正则化参数为1.0,循环次数为200.
//the SVMWithSGD with L1 val svmAlg = new SVMWithSGD() svmAlg.optimizer.setNumIterations(200) .setRegParam(1.0) .setUpdater(new L1Updater) val model = svmAlg.run(training)
LogisticRegressionWithSGD和SVMWithSGD使用方法相似。
线性最小二乘法是回归问题最常用的解法。线性表示如下,使用平方损失函数
\( L(w;x,y):=\frac{1}{2}(w^Tx-y)^2 \)
根据使用的正则化方法的不同,各种回归方法被分为:普通最小二乘或线性最小二乘(不使用正则化);岭回归(使用L2正则化);和Lasso(使用L1正则化)。所有的方法都是用平均错误率或训练错误率,\( \frac{1}{n}\sum_{i=1}^{n}(w^Tx_i-y_i)^2 \),即均方差错误率。
下面的例子描绘了如何加载训练数据,解析数据成为LabeledPoint的RDD格式。之后使用LinearRegressionWithSGD建立简单的线性模型去预测标签值。然后计算均方差错误率评价结果。
数据以流的方式到达,就需要用到在线的修正回归模型,在新数据到达时更新模型参数。MLlib使用普通最小二乘支持流式数据。修正和离线执行是相似的,对每批数据进行修正,这样模型就可以针对数据流进行连续更新。
下面的例子描述了如何加载数据,测试来自两个不同文本文件流的数据,将流解析为标记点,使用第一个流修正一个在线线性回归模型,用第二个流进行预测