libsvm简介

在条件都一样的情况下,LIBSVM是台湾大学林智仁(Lin Chih-Jen)副教授等开发设计的一个简单、易于使用和快速有效的SVM模式识别与回归的软件包,他不但提供了编译好的可在Windows系列系统的执行文件,还提供了源代码,方便改进、修改以及在其它操作系统上应用;该软件还有一个特点,就是对SVM所涉及的参数调节相对比较少,提供了很多的默认参数,利用这些默认参数就可以解决很多问题;并且提供了交互检验(Cross Validation)的功能。该软件包可以在http://www.csie.ntu.edu.tw/~cjlin/免费获得。该软件可以解决C-SVM分类、?-SVM分类、?-SVM回归和?-SVM回归等问题,包括基于一对一算法的多类模式识别问题。在第2章中我们也介绍了该软件的一些优点,因此通过综合考虑,我们决定采用该软件作为工作软件。SVM用于模式识别或回归时,SVM方法及其参数、核函数及其参数的选择,目前国际上还没有形成一个统一的模式,也就是说最优SVM算法参数选择还只能是凭借经验、实验对比、大范围的搜寻或者利用软件包提供的交互检验功能进行寻优。LIBSVM使用方法LibSVM是以源代码和可执行文件两种方式给出的。如果是Windows系列操作系统,可以直接使用软件包提供的程序,也可以进行修改编译;如果是Unix类系统,必须自己编译,软件包中提供了编译格式文件,我们在SGI工作站(操作系统IRIX6.5)上,使用免费编译器GNU C++3.3编译通过。
LIBSVM 使用的一般步骤是:
1) 按照LIBSVM软件包所要求的格式准备数据集;
2) 对数据进行简单的缩放操作;
3) 考虑选用RBF 核函数;
4) 采用交叉验证选择最佳参数C与g ;
5) 采用最佳参数C与g 对整个训练集进行训练获取支持向量机模型;
6) 利用获取的模型进行测试与预测。
LIBSVM使用的数据格式
该软件使用的训练数据和检验数据文件格式如下:
<label> <index1>:<value1> <index2>:<value2> ...
其中<label> 是训练数据集的目标值,对于分类,它是标识某类的整数(支持多个类);对于回归,是任意实数。<index> 是以1开始的整数,可以是不连续的;<value>为实数,也就是我们常说的自变量。检验数据文件中的label只用于计算准确度或误差,如果它是未知的,只需用一个数填写这一栏,也可以空着不填。在程序包中,还包括有一个训练数据实例:heart_scale,方便参考数据文件格式以及练习使用软件。可以编写小程序,将自己常用的数据格式转换成这种格式
Svmtrain和Svmpredict的用法
LIBSVM软件提供的各种功能都是DOS命令执行方式。我们主要用到两个程序,svmtrain(训练建模)和svmpredict(使用已有的模型进行预测),下面分别对这两个程序的使用方法、各参数的意义以及设置方法
做一个简单介绍:
Svmtrain的用法:svmtrain [options] training_set_file [model_file]
Options:可用的选项即表示的涵义如下
-s svm类型:SVM设置类型(默认0)
 0 -- C-SVC
 1 --v-SVC
 2 – 一类SVM
 3 -- e -SVR
 4 -- v-SVR
-t 核函数类型:核函数设置类型(默认2)
 0 – 线性:u'v
 1 – 多项式:(r*u'v + coef0)^degree
 2 – RBF函数:exp(-r|u-v|^2)
 3 –sigmoid:tanh(r*u'v + coef0)
-d degree:核函数中的degree设置(默认3)
-g r(gama):核函数中的?函数设置(默认1/ k)
-r coef0:核函数中的coef0设置(默认0)
-c cost:设置C-SVC,? -SVR和?-SVR的参数(默认1)
-n nu:设置?-SVC,一类SVM和?- SVR的参数(默认0.5)
-p e:设置? -SVR 中损失函数?的值(默认0.1)
-m cachesize:设置cache内存大小,以MB为单位(默认40)
-e ?:设置允许的终止判据(默认0.001)
-h shrinking:是否使用启发式,0或1(默认1)
-wi weight:设置第几类的参数C为weight?C(C-SVC中的C)(默认1)
-v n: n-fold交互检验模式
其中-g选项中的k是指输入数据中的属性数。option -v 随机地将数据剖分为n部分并计算交互检验准确度和均方根误差。以上这些参数设置可以按照SVM的类型和核函数所支持的参数进行任意组合,如果设置的参数在函数或SVM类型中没有也不会产生影响,程序不会接受该参数;如果应有的参数设置不正确,参数将采用默认值。training_set_file是要进行训练的数据集;model_file是训练结束后产生的模型文件,文件中包括支持向量样本数、支持向量样本以及lagrange系数等必须的参数;该参数如果不设置将采用默认的文件名,也可以设置成自己惯用的文件名。
Svmpredict的用法:svmpredict test_file model_file output_filemodel_file是由svmtrain产生的模型文件;test_file是要进行预测的数据文件;Output_file是svmpredict的输出文件。svm-predict没有其它的选项。svmtrain -s 0 -c 1000 -t 1 -g 1 -r 1 -d 3 data_file训练一个由多项式核(u'v+1)^3和C=1000组成的分类器。svmtrain -s 1 -n 0.1 -t 2 -g 0.5 -e 0.00001 data_file在RBF核函数exp(-0.5|u-v|^2)和终止允许限0.00001的条件下,训练一个?-SVM (? = 0.1)分类器。svmtrain -s 3 -p 0.1 -t 0 -c 10 data_file以线性核函数u'v和C=10及损失函数?= 0.1求解SVM回归。
optimization finished, #iter
         迭代次数
epsilon =
        二次规划的终止条件
obj = ,
        obj,就是那个二次规划的最小值吧
rho =
        判决函数的常数向
nSV = ,
       支持向量的个数
 使用实例:

1)svmtrain train3.scale train3.model

训练train3.scale,将模型保存于文件train3.model,并在dos窗口中输出如下

结果:

optimization finished, #iter = 1756

nu = 0.464223

obj = -551.002342, rho = -0.337784

nSV = 604, nBSV = 557

Total nSV = 604

其中,#iter为迭代次数,nu 与前面的操作参数-n n 相同,obj为SVM文件

转换为的二次规划求解得到的最小值,rho 为判决函数的常数项b,nSV 为支持

向量个数,nBSV为边界上的支持向量个数,Total nSV为支持向量总个数。

训练后的模型保存为文件train3.model,用记事本等文本浏览器打开可以看到其内容如下(其后“%”后内容为笔者所加注释):

svm_type c_svc % 训练所采用的svm类型,此处为C- SVC

kernel_type rbf % 训练采用的核函数类型,此处为RBF核

gamma 0.047619 % 与操作参数设置中的g 含义相同

nr_class 2 % 分类时的类别数,此处为两分类问题

total_sv 604 % 总共的支持向量个数

rho -0.337784 % 决策函数中的常数项b

label 0 1 % 类别标签

nr_sv 314 290 % 各类别标签对应的支持向量个数

SV % 以下为支持向量

1 1:-0.963808 2:0.906788 ... 19:-0.197706 20:-0.928853 21:-1

1 1:-0.885128 2:0.768219 ... 19:-0.452573 20:-0.980591 21:-1

... ... ...

1 1:-0.847359 2:0.485921 ... 19:-0.541457 20:-0.989077 21:-1

% 对于分类问题,上面的支持向量的各列含义与训练数据集相同;对于回归问题,略有不同,与训练数据中的标签label(即y值)所对应的位置在模型文件的支持向量中现在存放的是Lagrange 系数a 值,即为下面决策函数公式中的a 值:

四. svmpredict 的用法

svmpredict 是根据训练获得的模型,对数据集合进行预测。

用法:svmpredict [options] test_file model_file output_file

options(操作参数):

-b probability_estimates:是否需要进行概率估计预测,可选值为0 或者1,

默认值为0。

model_file 是由svmtrain 产生的模型文件;test_file 是要进行预测的数据文

件;output_file 是svmpredict 的输出文件,表示预测的结果值。svmpredict 没有

其它的选项。

你可能感兴趣的:(windows,validation,File,output,Training,optimization)