//刚开始我一直以为imageData里面会有负数,后来发现自己错了,但是会有0存在
void main() {
int i , j;
long k;
char *BGRData;
IplImage * image = cvLoadImage( "lena.jpg" , 1 );
IplImage *iplImage = cvCreateImage(cvGetSize(image),image->depth,image->nChannels);
/*//方法一:
for( j = 0 ; j < image -> height ; j ++ ) {
for( i = 0 ; i < image -> width ; i ++ ) {
( ( iplImage -> imageData + j * image -> widthStep ) ) [ i * iplImage -> nChannels ]
= ( ( image -> imageData + j * image -> widthStep ) ) [ i * image -> nChannels ];
( ( iplImage -> imageData + j * image -> widthStep ) ) [ i * iplImage -> nChannels + 1]
=((image -> imageData+j*image->widthStep))[i*image->nChannels+1];
( ( iplImage -> imageData + j * image -> widthStep ) ) [ i * iplImage -> nChannels +2 ]
=((image -> imageData+j*image->widthStep))[i*image->nChannels+2];
}
}
*/
/*//方法二:
for( k = 0 ; k < image -> height * image -> widthStep ; k ++ ) {
iplImage -> imageData[ k ] = image -> imageData[ k ];
}
*/
/*//方法三:
cvSetData( iplImage , image -> imageData , iplImage -> widthStep );
*/
////方法四:
BGRData = ( char * ) malloc ( image -> height * image -> widthStep * sizeof( char ) );
for( k = 0 ; k < image -> height * image -> widthStep ; k ++ ) {
BGRData[ k ] = image -> imageData[ k ];
}
cvSetData( iplImage , BGRData , iplImage -> widthStep );
cvShowImage( "image" , image );
cvShowImage( "iplImage" , iplImage );
cvWaitKey( 100000 );
}
原图像检测人脸区域,在将人脸区域赋值给一个使用cvCreateImage函数创建的图像时出现了问题。
问题图像如上图所示,原代码如下所示:
- CvSize tmpSize;
- tmpSize.width = width;
- tmpSize.height = height;
- IplImage *tmpImg = cvCreateImage(tmpSize, IPL_DEPTH_8U, 1);
- int m = startY;
- for(int i=0; i<height; i++)
- {
- int n = startX;
- //int widthStep = tmpImg->widthStep;
- for(int j=0; j<width; j++)
- {
- *(tmpImg->imageData + i*<span style="color:#ff0000;">width</span> + j) =
- *(image->imageData + m*image-><span style="color:#ff0000;">width</span> + n);
- n++;
- }
- m++;
- }
由于IplImage->width这个变量并不是经过4字节对齐后的宽度,由于使用cvCreateImage创建图像时,svSize中的宽度并不一定是4字节的倍数,上述代码中使用了width导致图像出现交叉的现象,将代码中width换为widthStep就可以解决问题了。
图片来自网上
开始做人脸检测的移植工作了,前段时间完成了opencv的1.0版的源代码包在montavista的工具链下的编译,经过交叉编译成功的将facedetect例程在DM6446的ARM上跑通了。但这个程序里的IplImage是通过cvLoadImage一jpg图片得到的,而我的程序里是利用v4l2驱动从摄像头读到的UYVY格式的数据,因此想自己来创建这个IplImage的结构体。
IplImage 结构解读:
typedef struct _IplImage
{
int nSize;
/* IplImage大小 */
int ID;
/* 版本 (=0)*/
int nChannels;
/* 大多数OPENCV函数支持1,2,3 或 4 个通道 */
int alphaChannel;
/* 被OpenCV忽略 */
int depth;
/* 像素的位深度: IPL_DEPTH_8U, IPL_DEPTH_8S, IPL_DEPTH_16U,
IPL_DEPTH_16S, IPL_DEPTH_32S, IPL_DEPTH_32F and IPL_DEPTH_64F 可支持 */
char colorModel[4];
/* 被OpenCV忽略 */
char channelSeq[4];
/* 同上 */
int dataOrder;
/* 0 - 交叉存取颜色通道, 1 - 分开的颜色通道.
cvCreateImage只能创建交叉存取图像 */
int origin;
/* 0 - 顶—左结构,1 - 底—左结构 (Windows bitmaps 风格) */
int align;
/* 图像行排列 (4 or 8). OpenCV 忽略它,使用 widthStep 代替 */
int width;
/* 图像宽像素数 */
int height;
/* 图像高像素数*/
struct _IplROI *roi;
/* 图像感兴趣区域. 当该值非空只对该区域进行处理 */
struct _IplImage *maskROI;
/* 在 OpenCV中必须置NULL */
void *imageId;
/* 同上*/
struct _IplTileInfo *tileInfo;
/*同上*/
int imageSize;
/* 图像数据大小(在交叉存取格式下imageSize=image->height*image->widthStep),单位字节*/
char *imageData;
/* 指向排列的图像数据 */
int widthStep;
/* 排列的图像行大小,以字节为单位 */
int BorderMode[4];
/* 边际结束模式, 被OpenCV忽略 */
int BorderConst[4];
/* 同上 */
char *imageDataOrigin;
/* 指针指向一个不同的图像数据结构(不是必须排列的),是为了纠正图像内存分配准备的 */
}
IplImage;
重要结构元素说明:
depth和nChannels
depth代表颜色深度,使用的是以下定义的宏,nChannels是通道数,为1,2,3或4。
depth的宏定义:
IPL_DEPTH_8U,无符号8bit整数(8u)
IPL_DEPTH_8S,有符号8bit整数(8s)
IPL_DEPTH_16S,有符号16bit整数(16s)
IPL_DEPTH_32S,有符号32bit整数(32s)
IPL_DEPTH_32F,32bit浮点数,单精度(32f)
origin和dataOrder
origin变量可以有两个取值:IPL_ORIGIN_TL或者IPL_ORIGIN_BL,分别代表图像坐标系原点在左上角或是左下角。相应的,在计算机视觉领域,一个重要的错误来源就是原点位置的定义不统一。例如,图像的来源不同,操作系统不同,视频解码codec不同,存储方式不同等等,都可以造成原点位置的变化。例如,你可能认为你正在从图像上面的脸部附近取样,但实际上你却在图像下方的裙子附近取样。最初时,就应该检查一下你的系统中图像的原点位置,这可以通过在图像上方画个形状等方式实现。
dataOrder的取值可以是IPL_DATA_ORDER_PIXEL或者IPL_DATA_ORDER_PLANE,这个成员变量定义了多通道图像数据存储时颜色数据的排列方式,如果是IPL_DATA_ORDER_PIXEL,通道颜色数据排列将会是BGRBGR...的交错排列,如果是IPL_DATA_ORDER_PLANE,则每个通道的颜色值在一起,有几个通道,就有几个“颜色平面”。大多数情况下,通道颜色数据的排列是交错的。
widthStep与CvMat中的step类似,是以字节数计算的图像的宽度。成员变量imageData则保存了指向图像数据区首地址的指针。
最后还有一个重要参数roi(region of interest 感兴趣的区域),这个参数是IplROI结构体类型的变量。IplROI结构体包含了xOffset,yOffset,height,width,coi成员变量,其中xOffset,yOffset是x,y坐标,coi代表channel of interest(感兴趣的通道)。有时候,OpenCV图像函数不是作用于整个图像,而是作用于图像的某一个部分。这是,我们就可以使用roi成员变量了。如果IplImage变量中设置了roi,则OpenCV函数就会使用该roi变量。如果coi被设置成非零值,则对该图像的操作就只作用于被coi指定的通道上了。不幸的是,许多OpenCV函数忽略了coi的值。
访问图像中的数据
就象访问矩阵中元素一样,我们希望用最直接的办法访问图像中的数据,例如,如果我们有一个三通道HSV图像(HSV色彩属性模式是根据色彩的三个基本属性:色相H、饱和度S和明度V来确定颜色的一种方法),我们要将每个点的饱和度和明度设置成255,则我们可以使用指针来遍历图像,请对比一下,与矩阵的遍历有何不同:
void sat_sv( IplImage* img ) {
for( int y=0; y<height; y++ ) {
uchar* ptr = (uchar*) (
img->imageData + y * img->widthStep
);
for( int x=0; x<width; x++ ) {
ptr[3*x+1] = 255;
ptr[3*x+2] = 255;
}
}
}
注意一下,3*x+1,3*x+2的方法,因为每一个点都有三个通道,所以这样设置。另外imageData成员的类型是uchar*,即字节指针类型,所以与CvMat的data指针类型(union)不同,而不需要象CvMat那样麻烦(还记得step/4,step/8的那种情形吗)。
roi和widthStep
roi和widthStep在实际工作中有很重要的作用,在很多情况下,使用它们会提高计算机视觉代码的执行速度。这是因为它们允许对图像的某一小部分进行操作,而不是对整个图像进行运算。在OpenCV中,所有的对图像操作的函数都支持roi,如果你想打开roi,可以使用函数cvSetImageROI(),并给函数传递一个矩形子窗口。而cvResetImageROI()是用于关闭roi的。
void cvSetImageROI(IplImage* image,CvRect rect);
void cvResetImageROI(IplImage* image);
注意,在程序中,一旦使用了roi做完相应的运算,就一定要用cvResetImageROI()来关闭roi,否则,其他操作执行时还会使用roi的定义。