【OpenCV3.3】SVM与字符分类示例

        SVM,全称Support Vector Machine,即支持向量机,是机器学习中常用的分类器(同样支持向量回归),属监督式学习的一种。

        在二值分类中,SVM通过寻找一个 决策最优分类超平面 来尽可能地将两类样本分开(最大分类间隔)并作为分类的判据,以期得到较强的泛化能力,我们所指的训练(train)主要就是寻找这个超平面。如果你看过相关推导,会发现原本复杂的问题被一步步等价,引入拉格朗日继而巧妙的转到凸优化及对偶问题的求解上,数学的力量令人叹为观止。

        一般而言SVM是二值分类器,但是我们可以通过增加多个分类器来完成N分类,自然如何组织这些分类器也是一个优化问题。目前存在的多类判别方法有1-V-R、1-V-1、有向无环图(DAG-SVMS)、决策树方法、纠错输出编码法(ECOC)等。

        OpenCV的SVM实现基于LIBSVM v2.6,而目前 LIBSVM 的最新版本是3.22,所以如果你深度依赖于SVM,建议使用LIBSVM,相比OpenCV其无论从更新频度还是支持范围都有较大优势,值得注意的是两者还是有些细微差别,不能无缝迁移。

        下面是一个SVM字符分类示例:

#include "stdafx.h"
#define DATA_DIR "D:\\OpenCV\\bin\\toy_data\\"

//-------------------------------------------------------------------------

INT WINAPI WinMain(_In_ HINSTANCE, _In_opt_ HINSTANCE, _In_ LPSTR, _In_ INT)
{
	cv::ipp::setUseIPP(true);

	// 如果SVM模型数据svm.txt存在,则从文件读取;否则加载训练数据进行训练
	cv::Ptr &&svm = cv::ml::SVM::create();
	cv::FileStorage cf(DATA_DIR "svm.txt", cv::FileStorage::READ);
	if (cf.isOpened()) {
//		svm = svm->load(DIR "svm.txt");
		svm->read(cf.getFirstTopLevelNode());
		cf.release();
	} else {
		// 加载训练数据,DATA_DIR目录下所有的 [0-9][a-z].png
		cv::Mat sample;
		cv::Mat label(cv::Size(0, 0), CV_32SC1); // 注意这里和2.x区别,3.x必须使用CV_32S,原因后面会说
		char filename[] = { DATA_DIR "$$.png" };
		char *varchar = strchr(filename, '$');
		for (char num = '0'; num <= '9'; ++num) {
			varchar[0] = num;
			for (char alpha = 'a'; alpha < 'z'; ++alpha) {
				varchar[1] = alpha;

				cv::Mat &&img = cv::imread(filename, cv::IMREAD_GRAYSCALE);
				if (img.dims > 0) {
					// 归一化, 一般认为能加快参数优化时的收敛速度、平衡模型权重等
					cv::normalize(img, img, 1., 0., cv::NormTypes::NORM_MINMAX, CV_32FC1);
					// 但如果你的数据量级本身相差不大,也可以不归一化直接convertTo即可
					//img.convertTo(img, CV_32FC1);
					sample.push_back(img.reshape(0, 1));
					label.push_back(num); // 注意push_back有模版重载,可能意外改变Mat类型
				} //if
			} //for
		} //for
		cv::Ptr &&trainDataSet = cv::ml::TrainData::create(sample, cv::ml::ROW_SAMPLE, label);

		// 设置参数,仅作为示例
// 		svm->setType(cv::ml::SVM::C_SVC);
// 		svm->setKernel(cv::ml::SVM::LINEAR);
// 		svm->setC(0.01);
// 		svm->setTermCriteria(cv::TermCriteria(cv::TermCriteria::MAX_ITER + cv::TermCriteria::EPS, 1000, FLT_EPSILON));
// 		svm->train(trainDataSet);

		// 有时候会出现过拟合、欠拟合现象,排除训练数据影响的情况下一般就是参数问题了,可以使用trainAuto来进行参数优化
		svm->trainAuto(trainDataSet);
		// 如果想让部分参数不进行优化,可以使用*cv::ml::ParamGrid::create(0, 0, 0)代替相应Grid默认值,如下不对C进行优化:
		//svm->trainAuto(trainDataSet, 10, *cv::ml::ParamGrid::create(0, 0, 0));

		svm->save(DATA_DIR "svm.txt");
	} //if

	cv::Mat &&tk = cv::imread(DATA_DIR "9b.png", cv::IMREAD_GRAYSCALE); 
	cv::normalize(tk, tk, 1., 0., cv::NormTypes::NORM_MINMAX, CV_32FC1);
//	tk.convertTo(tk, CV_32FC1);

	float r  = svm->predict(tk.reshape(0, 1));
	char c[] = { static_cast(r), 0 };
	OutputDebugStringA(c);

	return 0;
}

        上述程序运行后会在IDE调试窗口输出9。我的部分训练数据如下(来自MSPAINT,每个样本都是8x8的二值图像):

【OpenCV3.3】SVM与字符分类示例_第1张图片

        代码中提到标签类型在3.x版本应该使用CV_32S(OpenCV 2.x版本使用CV_32F),否则会产生错误,文档没有提及原因,但看了模块源码,似乎是有意的`bug`:当模型使用C_SVC或NU_SVC,并且标签、样本数量一致时 ,label使用CV_32FC1会出现错误,原因是C_SVC会使用TrainData::getTrainNormCatResponses,而normCatResponses是空的(未被初始化),因为\modules\ml\src\data.cpp第320行

if( noutputvars == 1 )
    varType.at(ninputvars) = (uchar)(responses.type() < CV_32F ? VAR_CATEGORICAL : VAR_ORDERED);
        此时CV_32F会导致打上VAR_ORDERED标志,从而在第406行跳过了preprocessCategorical对normCatResponses的处理
if( noutputvars > 0 && varType.at(ninputvars) == VAR_CATEGORICAL )
{
    preprocessCategorical(responses, &normCatResponses, labels, &counters, sortbuf);
    Mat(labels).copyTo(classLabels);
    Mat(counters).copyTo(classCounters);
}
        从而导致断言data != NULL失败。




你可能感兴趣的:(C/C++,图像处理)