#include "ml.h" #include "highgui.h" int main( int argc, char** argv ) { const int K = 10; int i, j, k, accuracy; float response; int train_sample_count = 100; CvRNG rng_state = cvRNG(-1);//随机数产生器用来随机交换数组元素.如果为NULL,一个当前的随机数发生器将被创建与使用 // CvMat* cvCreateMat(int rows, int cols, int type); //type: 矩阵元素类型. 按CV_<bit_depth>(S|U|F)C<number_of_channels> 方式指定. 例如: CV_8UC1 、CV_32SC2. /*为新矩阵分配内存*/ CvMat* trainData = cvCreateMat( train_sample_count, 2, CV_32FC1 );//产生train_sample_count*2的矩阵 CvMat* trainClasses = cvCreateMat( train_sample_count, 1, CV_32FC1 ); //IplImage* cvCreateImage(CvSize size, int depth, int channels); //功能:分配内存给一副新图像 IplImage* img = cvCreateImage( cvSize( 500, 500 ), 8, 3 ); float _sample[2]; /*初始化矩阵*/ CvMat sample = cvMat( 1, 2, CV_32FC1, _sample ); /*将图像矩阵清零*/ cvZero( img ); CvMat trainData1, trainData2, trainClasses1, trainClasses2; // 形成训练数据 /*函数原型:CvMat* cvGetRows( const CvArr* arr, CvMat* submat, int start_row, int end_row, int delta_row=1 );*/ //功能:返回数组的一行或在一定跨度内的行 // arr // 输入数组。 // submat // 指向返回的子数组头的指针。 // row // 被选定行的索引下标,索引下标从0开始。 // start_row // 跨度的开始行(包括此行)索引下标,索引下标从0开始。 // end_row // 跨度的结束行(不包括此行)索引下标,索引下标从0开始。 // delta_row // 在跨度内的索引下标跨步,从开始行到结束行每隔delta_row行提取一行。 cvGetRows( trainData, &trainData1, 0, train_sample_count/2 ); /* 函数原型:void cvRandArr( CvRNG* rng, CvArr* arr, int dist_type, CvScalar param1, CvScalar param2 ); 功能:用随机数填充数组并更新 RNG 状态 rng 被 cvRNG 初始化的 RNG 状态. arr 输出数组 dist_type 分布类型: CV_RAND_UNI - 均匀分布 CV_RAND_NORMAL - 正态分布 或者 高斯分布 param1 分布的第一个参数。如果是均匀分布它是随机数范围的闭下边界。如果是正态分布它是随机数的平均值。 param2 分布的第二个参数。如果是均匀分布它是随机数范围的开上边界。如果是正态分布它是随机数的标准差。*/ cvRandArr( &rng_state, &trainData1, CV_RAND_NORMAL, cvScalar(200,200), cvScalar(50,50) ); cvGetRows( trainData, &trainData2, train_sample_count/2, train_sample_count ); cvRandArr( &rng_state, &trainData2, CV_RAND_NORMAL, cvScalar(300,300), cvScalar(50,50) ); cvGetRows( trainClasses, &trainClasses1, 0, train_sample_count/2 ); cvSet( &trainClasses1, cvScalar(1) ); cvGetRows( trainClasses, &trainClasses2, train_sample_count/2, train_sample_count ); cvSet( &trainClasses2, cvScalar(2) ); // learn classifier CvKNearest knn( trainData, trainClasses, 0, false, K ); CvMat* nearests = cvCreateMat( 1, K, CV_32FC1); for( i = 0; i < img->height; i++ ) { for( j = 0; j < img->width; j++ ) { sample.data.fl[0] = (float)j; sample.data.fl[1] = (float)i; // estimates the response and get the neighbors' labels response = knn.find_nearest(&sample,K,0,0,nearests,0); // compute the number of neighbors representing the majority for( k = 0, accuracy = 0; k < K; k++ ) { if( nearests->data.fl[k] == response) accuracy++; } // highlight the pixel depending on the accuracy (or confidence) cvSet2D( img, i, j, response == 1 ? (accuracy > 5 ? CV_RGB(180,0,0) : CV_RGB(180,120,0)) : (accuracy > 5 ? CV_RGB(0,180,0) : CV_RGB(120,120,0)) ); } } // display the original training samples for( i = 0; i < train_sample_count/2; i++ ) { CvPoint pt; pt.x = cvRound(trainData1.data.fl[i*2]); pt.y = cvRound(trainData1.data.fl[i*2+1]); cvCircle( img, pt, 2, CV_RGB(255,0,0), CV_FILLED ); pt.x = cvRound(trainData2.data.fl[i*2]); pt.y = cvRound(trainData2.data.fl[i*2+1]); cvCircle( img, pt, 2, CV_RGB(0,255,0), CV_FILLED ); } cvNamedWindow( "classifier result", 1 ); cvShowImage( "classifier result", img ); cvWaitKey(0); cvReleaseMat( &trainClasses ); cvReleaseMat( &trainData ); return 0; }