音视频 系列文章
Android 音视频开发(一) – 使用AudioRecord 录制PCM(录音);AudioTrack播放音频
Android 音视频开发(二) – Camera1 实现预览、拍照功能
Android 音视频开发(三) – Camera2 实现预览、拍照功能
Android 音视频开发(四) – CameraX 实现预览、拍照功能
Android 音视频开发(五) – 使用 MediaExtractor 分离音视频,并使用 MediaMuxer合成新视频(音视频同步)
音视频工程
前面几章,我们已经学习了音视频开发的一些知识,这几章,我们来学习音视频的编解码;
如果我们只是简单玩一下音频、视频播放,那么使用 MediaPlayer + SurfaceView 播放就可以了,但如果想加个水印,加点其他特效什么的,那就不行了;
所以,这里,先来学习 Android 自带的硬件码类 – MediaCodec。
MediaCodec 是 从API 16 后引入的处理音视频编解码的类,它可以直接访问 Android 底层的多媒体编解码器,通常与MediaExtractor, MediaSync, MediaMuxer, MediaCrypto, MediaDrm, Image, Surface, 以及AudioTrack一起使用;
接下来,注意看下面这张官方的图,需要好好理解,因为整个流程都是按照这个来的:
可以看到,MediaCodec 的数据分为两个部分,从数据的输入到编解码后的数据的输出:
MediaCodec 内部使用异步的方式对 input 和 output 进行数据处理,MediaCodec 会把 input 的数据处理好给到 output,共用户去渲染;
注意!output 的数据必须释放,不然会影响下一次的数据填充。
编码器共支持3中数据类型:
这三种数据都是可以通过 ByteBuffer 去处理;但是你可以使用 Surface 去解析原始的视频数据,Surface 使用底层的视频缓冲,而不是映射或拷贝到 ByteBuffer,这样会大大提高编码效率。
但使用 Surface 时,无法访问到原始的视频数据,所以,你可以使用 ImageReader 来访问未加密的解码(原始)数据。在 ByteBuffer 的模式下,你也可以使用 Image 或者 getInput/OutputImage(int) 来获取原始视频帧。
它的生命周期可以分为三个:Stopped,Executing 和 Released
而 Stopped 和 Executing 都有各自的生命周期:
当调用 MediaCodec 时,此时会处于 Uninitialized 状态,当调用 configure 之后,就会处于 Configured 状态;然后调用 start() 进入 Executing 状态,接着就可以处理数据了。
当调用 start() 就会进入 Executing 下的 Flushed 状态,此时会拿到所有的 buffers,当第一帧数据从 dequeueInoutBuffer 队列流出时,就会进入 Running 状态,大部分时间都在这个状态处理数据,当队列中有 end-of-stream 标志时,就会进入 End of Stream 状态,此时不再接收 input buffer,但是会继续生成 output buffer,直到 output 也接收到 end-of-stream 标志。你可以使用 flush() 重新回到 Flushed 状态。
周期图如下:
可以使用 stop() 方法回到 Uninitialized 状态;当不再使用 MediaCodec ,还需要使用 release() 去释放该资源。
请一定要理解上面两张图,因为后面的编解码都是基于上面的流程的!!
有时候编解码器会遇到错误并处于错误状态,此时会通过排队操作的无效返回值或有时通过异常来传达的。
调用reset()使编解码器再次可用,调用它可以从任何状态回到初始化状态,否则就调用 release() 来移动到终端的 release 状态。
关于MediaCodec 的编解码流程,我们等到下一章再学习。
MediaCodec 的主要 API 如下:
下一章,一起学习MediaCodec 的解码
参考:
https://developer.android.com/reference/android/media/MediaCodec
https://www.cnblogs.com/renhui/p/7478527.html