Android开发日志 摄像头视频流捕获

兴趣 创新 践行

Android开发日志 摄像头视频流捕获

 

这个是前几日做的东西

原理是利用手机的摄像头取景,然后解码视频流

拆分成位图,然后对位图进行处理和识别

要在android手机里面捕获视频流

当然,手机必须得有摄像头

然后嘛,第一步是在AndroidManifest.xml加入如下权限声明

<permission android:name="android.permission.CAMERA">permission>
<uses-permission android:name="android.permission.CAMERA" />
<uses-feature android:name="android.hardware.camera" />
<uses-feature android:name="android.hardware.camera.autofocus" />

 

 

摄像头的预览和捕获只能通过surfaceview..

而且他的工作模式必须是SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS

不然不能在surfaceview里面显示出预览的图像

然后在surfaceCreated方法里面加入我们的摄像头初始化

 
public void surfaceCreated(SurfaceHolder arg0) {
   
 //启动相机服务
     
mCamera = Camera.open();
    Log.i("Camera", "surface open");
    try {
        //设置预览  这个holder是 SurfaceView的getHolder()方法得到的
        mCamera.setPreviewDisplay(holder);
         Camera.Parameters parameters = mCamera.getParameters();
        //设置图片格式
         parameters.setPictureFormat(PixelFormat.JPEG);
        //设置预览的帧数,受硬件影响.
        parameters.setPreviewFrameRate(10);
        //设置尺寸
        parameters.setPreviewSize(preV.getWidth(), preV.getHeight());
        mCamera.setParameters(parameters);
        //设置回调的类
         mCamera.setPreviewCallback(new ViewCallback(preV, this));
        //开始预览
         mCamera.startPreview();
    } catch (Exception e) {
        //释放相机
         mCamera.release();
        mCamera = null;
        return;
    }
}

 

然后看看我们的ViewCallback类

在这个类里面要实现PreviewCallback

主要是里面的 public void onPreviewFrame(byte[] data, Camera arg1) {}

data就是返回的数据流了, 不过麻烦的是这个流并不是rgb编码的,是YUV420SP编码的,

Camera.Parameters 里面有个setPreviewFormat()  这个虽然可以设置 但是具体能不能编码成JPEG是受你的手机影响的

老老实实得解码吧...网上关于YUV420SP编码的内容相当相当少..

    static public void decodeYUV420SP(byte[] rgbBuf, byte[] yuv420sp, int width, int height) {
    	final int frameSize = width * height;
		if (rgbBuf == null)
			throw new NullPointerException("buffer 'rgbBuf' is null");
		if (rgbBuf.length < frameSize * 3)
			throw new IllegalArgumentException("buffer 'rgbBuf' size "
					+ rgbBuf.length + " < minimum " + frameSize * 3);

		if (yuv420sp == null)
			throw new NullPointerException("buffer 'yuv420sp' is null");

		if (yuv420sp.length < frameSize * 3 / 2)
			throw new IllegalArgumentException("buffer 'yuv420sp' size " + yuv420sp.length
					+ " < minimum " + frameSize * 3 / 2);

    	int i = 0, y = 0;
    	int uvp = 0, u = 0, v = 0;
    	int y1192 = 0, r = 0, g = 0, b = 0;

    	for (int j = 0, yp = 0; j < height; j++) {
    		uvp = frameSize + (j >> 1) * width;
    		u = 0;
    		v = 0;
    		for (i = 0; i < width; i++, yp++) {
    			y = (0xff & ((int) yuv420sp[yp])) - 16;
    			if (y < 0) y = 0;
    			if ((i & 1) == 0) {
    				v = (0xff & yuv420sp[uvp++]) - 128;
    				u = (0xff & yuv420sp[uvp++]) - 128;
    			}

    			y1192 = 1192 * y;
    			r = (y1192 + 1634 * v);
    			g = (y1192 - 833 * v - 400 * u);
    			b = (y1192 + 2066 * u);

    			if (r < 0) r = 0; else if (r > 262143) r = 262143;
    			if (g < 0) g = 0; else if (g > 262143) g = 262143;
    			if (b < 0) b = 0; else if (b > 262143) b = 262143;

    			rgbBuf[yp * 3] = (byte)(r >> 10);
    			rgbBuf[yp * 3 + 1] = (byte)(g >> 10);
    			rgbBuf[yp * 3 + 2] = (byte)(b >> 10);
    		}
    	}
    }

 

具体怎么实现的我就不是很清楚了..好像是灰度在前面 然后把蓝色和青色混合成一个变量跟在后面..

但是呢.这个方法效率很低..特别是些cpu差的机器

可以数数..每次都是横向*纵向 算法复杂度挺高的..

然后我把他压缩了10倍..就是每隔10个点取一次,效率瞬间就上来了.

现在运行你的程序, 你可能会发现摄像头的样子很奇怪。

其实是因为屏幕方向的问题

把你的屏幕设置为永久横向即可

this.setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_LANDSCAPE);
//覆盖屏幕 不显示通知栏
this.requestWindowFeature(Window.FEATURE_NO_TITLE);
getWindow().setFlags(WindowManager.LayoutParams.TYPE_STATUS_BAR, WindowManager.LayoutParams.TYPE_STATUS_BAR);

 


你可能感兴趣的:(Android开发日志 摄像头视频流捕获)