Github项目地址,欢迎star~!
为了方便没有准备好梯子的同学,我把项目在CSDN上打包下载,不过更新会慢一些
回到目录
了解MediaPlayer的生命周期的好处是,当我们遇到各种状态异常时,可以很方便的找到出错的原因 ,具体的可以看这篇参考资料
了解了MediaPlayer的生命周期后,我们大概可以把播放器的状态设定成这样(仅供参考):
public enum PanoStatus
{
IDLE, PREPARED,BUFFERING, PLAYING, PAUSED_BY_USER, PAUSED, STOPPED, COMPLETE, ERROR
}
之所以要区分PAUSED
和PAUSED_BY_USER
,是因为当我们的播放器被直接切换到后台时应该暂停,而切换回来时,如果已经被用户暂停,不应该继续播放,否则应该继续播放(当然,这只是个人观点)。
MediaPlayer初始化代码可以这样写:
mediaPlayer=new MediaPlayer();
try{
mediaPlayer.setDataSource(context, Uri.parse(videoPath));
}catch (IOException e){
e.printStackTrace();
}
mediaPlayer.setAudioStreamType(AudioManager.STREAM_MUSIC);
mediaPlayer.setLooping(true);
videoPath是我们通过其他类传递过来的视频地址,为了方便,上面一段代码我直接写到了构造函数中,现在构造函数的形式如下:
public GLRenderer(Context context,String videoPath)
和图片不同的是,视频需要不断地刷新,每当有新的一帧来时,我们都应该更新纹理,然后重新绘制。
什么,创建的纹理难道不应该和之前一样的吗?因为视频的每一帧都可以看成图片啊。
主要的原因是,MediaPlayer的输出往往不是RGB格式(一般是YUV),而GLSurfaceView需要RGB格式才能正常显示,另外,获取每一帧的数据并没有那么方便。
所以,我们创建的纹理应该稍有不同,在这之前,我们先来看看官方对于SurfaceTexture的定义:
/**
* Captures frames from an image stream as an OpenGL ES texture.
*
* The image stream may come from either camera preview or video decode. A
* {@link android.view.Surface} created from a SurfaceTexture can be used as an output
* destination for the {@link android.hardware.camera2}, {@link android.media.MediaCodec},
* {@link android.media.MediaPlayer}, and {@link android.renderscript.Allocation} APIs.
* When {@link #updateTexImage} is called, the contents of the texture object specified
* when the SurfaceTexture was created are updated to contain the most recent image from the image
* stream. This may cause some frames of the stream to be skipped.
*/
SurfaceTexture的主要作用就是,从视频流和相机数据流获取新一帧的数据,获取新数据调用的方法是updateTexImage
{@link android.view.Surface} created from a SurfaceTexture can be used as an output
这句话的意思是,我们要用SurfaceTexture 创建一个Surface,然后将这个Surface作为MediaPlayer的输出表面。
用SurfaceView做过视频播放的话,应该比较好理解,区别在于,这个输出可以不显示出来,取决于你的render逻辑,这样在处理视频的时候就更自由一些。
那SurfaceTexture 要怎么创建呢,我们先在onSurfaceCreated中将生成纹理的代码改成这样:
int[] textures = new int[1];
GLES20.glGenTextures(1, textures, 0);
textureId = textures[0];
GLES20.glBindTexture(GLES11Ext.GL_TEXTURE_EXTERNAL_OES, textureId);
ShaderUtils.checkGlError("glBindTexture mTextureID");
GLES20.glTexParameterf(GLES11Ext.GL_TEXTURE_EXTERNAL_OES, GLES20.GL_TEXTURE_MIN_FILTER,
GLES20.GL_NEAREST);
GLES20.glTexParameterf(GLES11Ext.GL_TEXTURE_EXTERNAL_OES, GLES20.GL_TEXTURE_MAG_FILTER,
GLES20.GL_LINEAR);
和之前比较明显的区别是,我们用GLES11Ext.GL_TEXTURE_EXTERNAL_OES
来代替了GLES20.GL_TEXTURE_2D
,而且我们也没给这个纹理传递bitmap数据(废话,视频都还没放呢哪来的数据)
GLES11Ext.GL_TEXTURE_EXTERNAL_OES
的用处是什么?
之前提到视频解码的输出格式是YUV的(YUV420sp,应该是),那么这个扩展纹理的作用就是实现YUV格式到RGB的自动转化,我们就不需要再为此写YUV转RGB的代码了(如果你搜索相机Preview相关资料,会发现大量的YUV转RGB的实现)
我们给GLRenderer加入如下成员变量
private SurfaceTexture surfaceTexture;
private MediaPlayer mediaPlayer;
private boolean updateSurface;
然后在onSurfaceCreated的最后加上如下代码:
surfaceTexture = new SurfaceTexture(textureId);
surfaceTexture.setOnFrameAvailableListener(this);
Surface surface = new Surface(surfaceTexture);
mediaPlayer.setSurface(surface);
surface.release();
我们用之前生成的textureId去创建一个SurfaceTexture,然后用surfaceTexture去创建一个Surface ,再把surface设定为mediaPlayer的输出表面。
setOnFrameAvailableListener的作用,就是监听是否有新的一帧数据到来,我们设置为this,是让GLRenderer 来实现这个接口,如下所示:
public class GLRenderer implements GLSurfaceView.Renderer, SurfaceTexture.OnFrameAvailableListener
@Override
synchronized public void onFrameAvailable(SurfaceTexture surface) {
updateSurface = true;
}
synchronized (this){
if (updateSurface){
surfaceTexture.updateTexImage();
surfaceTexture.getTransformMatrix(mSTMatrix);
updateSurface = false;
}
}
在有新数据时,用updateTexImage来更新纹理,这个getTransformMatrix的目的,是让新的纹理和纹理坐标系能够正确的对应,mSTMatrix的定义是和projectionMatrix完全一样的。
private float[] mSTMatrix = new float[16];
getTransformMatrix的功能如下:
/**
* Retrieve the 4x4 texture coordinate transform matrix associated with the texture image set by
* the most recent call to updateTexImage.
*
* This transform matrix maps 2D homogeneous texture coordinates of the form (s, t, 0, 1) with s
* and t in the inclusive range [0, 1] to the texture coordinate that should be used to sample
* that location from the texture. Sampling the texture outside of the range of this transform
* is undefined.
*
* The matrix is stored in column-major order so that it may be passed directly to OpenGL ES via
* the glLoadMatrixf or glUniformMatrix4fv functions.
*
* @param mtx the array into which the 4x4 matrix will be stored. The array must have exactly
* 16 elements.
*/
public void getTransformMatrix(float[] mtx) {
// Note we intentionally don't check mtx for null, so this will result in a
// NullPointerException. But it's safe because it happens before the call to native.
if (mtx.length != 16) {
throw new IllegalArgumentException();
}
nativeGetTransformMatrix(mtx);
}
是不是感觉多了很多乱七八糟的东西?
没关系,下一节会有更多乱七八糟的东西。
回到目录