在前一篇中,我们已经讲解了opencv在Android实现预览,现在继续在这预览上面实现些其他功能。
首先需要知道我们使用的像素格式为:Bgra32。 Bgra32:Bgra32像素格式是一种32BPP的sRGB格式。每个颜色通道(蓝色blue, 绿色green, 红色red)各占8BPP(位/像素),与Bgr24不同的是,它还有用于表现 不透明度的alpha通道(8BPP)。 然后需要知道:从 RGB 到 YUV 空间的 Y 转换公式为:Y = 0.299R+0.587G+0.114B。 接着要转化为灰度图像:首先知道某个点的R、G、B值,然后用Y=0.299*R+0.587*G+0.114*B,计算出该点的亮度信息,然后需要知道灰度图中,其红(R)、 绿(G)、蓝(B)三个分量的值相等。 所以,我们要将预览黑白化,准确的说是灰化的做法: (1)取到预览界面中每个点的RGB数据信息。 (2)利用公式 Y = 0.299R+0.587G+0.114B,算出该点的亮度。 (3)将该点的R、G、B通道数据都设置为这个亮度。
它的代码实现,我是使用jni完成的,之前测试过直接用java计算,效率和速度。。。哭了。。。 代码如下:
public Mat onCameraFrame(CvCameraViewFrame inputFrame) { // TODO Auto-generated method stub int width,height; mRgba = inputFrame.rgba(); width = mRgba.width(); height = mRgba.height(); PreviceGray.grayProc(mRgba.getNativeObjAddr()); return mRgba; }
预览的每帧画面都会调用函数onCameraFrame,并且预览的数据就是mRgba,所以我们要灰化预览,可以直接修改mRgba数据来实现。 对mRgba中数据的修改,放在了PreviceGray.grayProc中来实现的。 jni中代码实现如下:
NIEXPORT void Java_com_example_camera_1opencv_1android_PreviceGray_grayProc(JNIEnv* env, jclass obj, jlong imageGray){ int i; int width,height; Mat mat = Mat(*((Mat*)imageGray)); width = mat.rows; height = mat.cols; uchar* ptr = mat.ptr(0); for(int i = 0; i < width*height; i++){ //计算公式:Y(亮度) = 0.299*R + 0.587*G + 0.114*B //对于一个int四字节,其彩色值存储方式为:BGRA int grayScale = (int)(ptr[4*i+2]*0.299 + ptr[4*i+1]*0.587 + ptr[4*i+0]*0.114); ptr[4*i+1] = grayScale; ptr[4*i+2] = grayScale; ptr[4*i+0] = grayScale; } }
也就是按照之前步骤操作:所有点的RGB数据都是在传入函数的imageGray可以找到,然后利用公式计算出亮度,最后用这个亮度值亮度值替换该点的RGB数据。 运行效果图如下:
参考代码如下:http://download.csdn.net/detail/u011630458/8403611
这个主要功能是,在预览时候,当点击预览界面,就以点击点为圆心,画一个红色的圆圈。
首先取到点击的坐标,然后和之前灰化操作一样,将预览的数据传入jni中,同时传入的还有触屏点的坐标,之后在jni中,使用cvCircle在传入的那帧数据上画一个 圆,接着将操作后数据返回,预览显示出来。 实现代码如下:
public Mat onCameraFrame(CvCameraViewFrame inputFrame) { // TODO Auto-generated method stub mRgba = inputFrame.rgba(); PreviceGray.grayProc(mRgba.getNativeObjAddr(),touch_x, touch_y); // Log.e("yulinghan","yulinghan onCameraFrame touch_x="+touch_x); return mRgba; } @Override public boolean onTouch(View arg0, MotionEvent arg1) { // TODO Auto-generated method stub touch_x = (int)arg1.getX(); touch_y = (int)arg1.getY(); Log.e("yulinghan","yulinghan onTouch touch_x="+touch_x); return false; }
预览时候,点击触屏就会触发onTouch操作,更新坐标值:touch_x,touch_y。接着在onCameraFrame中,将预览数据和坐标一起传入jni中 jin中处理如下:
JNIEXPORT void Java_com_example_camera_1opencv_1android_PreviceGray_grayProc(JNIEnv* env, jclass obj, jlong imageGray,jint touch_x,jint touch_y){ int width,height; Mat mat = Mat(*((Mat*)imageGray)); width = mat.rows; height = mat.cols; uchar* ptr = mat.ptr(0); IplImage cvmat = mat; __android_log_print(ANDROID_LOG_ERROR, "JNITag","width=%d,height=%d,touch_x=%d,touch_y=%d", width,height,touch_x,touch_y); cvCircle(&cvmat,cvPoint(touch_x,touch_y),100,cvScalar(255,0,0,255),10,8,0); }
只是简单的以传入的touch_x、touch_x为圆心,使用函数cvCircle在传入的预览数据中画了一个红色的圆。 运行效果如下:
检测边缘的方法有很多,如在《数字图像处理》书中介绍了微分算子、Canny算子、LOG滤波等方法。而在本文中使用腐蚀与膨胀相关的形态学梯度来完成。 膨胀就是求局部最大值的操作,腐蚀就是求局部最小值的操作。而形态学梯度为膨胀图与腐蚀图之差。可以在opencv中使用morphologyEx函数来直接实现。 具体核心代码如下:
JNIEXPORT void Java_com_example_camera_1opencv_1android_PreviceGray_grayProc(JNIEnv* env, jclass obj, jlong imageGray){ int i; int width,height; Mat mat = Mat(*((Mat*)imageGray)); width = mat.rows; height = mat.cols; uchar* ptr = mat.ptr(0); uchar* ptr_tmp; MorphoFeatures morpho; cv::Mat edges; for(int i = 0; i < width*height; i++){ //计算公式:Y(亮度) = 0.299*R + 0.587*G + 0.114*B //对于一个int四字节,其彩色值存储方式为:BGRA int grayScale = (int)(ptr[4*i+2]*0.299 + ptr[4*i+1]*0.587 + ptr[4*i+0]*0.114); ptr[4*i+1] = grayScale; ptr[4*i+2] = grayScale; ptr[4*i+0] = grayScale; } edges = morpho.getEdges(mat); ptr_tmp = edges.ptr(0); for(int i = 0; i < width*height; i++){ ptr[4*i+0] = ptr_tmp[4*i+0]; ptr[4*i+1] = ptr_tmp[4*i+1]; ptr[4*i+2] = ptr_tmp[4*i+2]; } }
代码中,首先将传入的预览数据灰阶化,然后用morphologyEx来做边缘检测,最后返回检测之后的数据。 演示效果如下:
参考代码如下:http://download.csdn.net/detail/u011630458/8403629