上一章中我们介绍了一个简易的播放器架构,对之前零碎的代码片段进行了组织和重构,形成了较为灵活的一种架构设计,它非常简单,但足够满足我们的需求。
现在,接着我们在 Android 上的旅程。今天我们来讨论如何在 Android 上显示画面。
Android 原生的 Java/Kotlin 接口播放视频还是很容易的,有 MediaController、MediaPlayer 等类可以直接使用,相关教程参考Android实现视频播放的3种实现方式。
由于我们的代码几乎都是 C/C++ ,因此需要找到一种从 Native 层进行视频播放的方法。这里要介绍的是 SurfaceView + Native 的显示方式。
关于 Android 图像绘制系统网上有很多文章说的较为清楚了,例如
这些内容中,我们要重点关注 BufferQueue 中生产者与消费者之间的关系
例如:一个Activity是一个Surface、一个Dialog也是一个Surface,承载了上层的图形数据,与SurfaceFlinger侧的Layer相对应。
Native层Surface实现了ANativeWindow结构体,在构造函数中持有一个IGraphicBufferProducer,用于和 BufferQueue 进行交互。
————————————————
版权声明:本文为CSDN博主「Jason_Lee155」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/jason_lee155/article/details/121663662
有了上述的基本认识后,接下来我们介绍 SurfaceView
关于 Surface 的介绍文章有:
总结下上述文章的对我们来说重要的理解内容:
关于 SurfaceView 的介绍文章有:
总结下上述文章对我们来说的重点内容:
OK,我们将上面的知识串起来:
在了解了 Surface 和 SurfaceView 后,我们现在已经能够做到使用 JNI(NDK)和 SurfaceView 来显示一张图片了,具体代码在 T02DisplayImageActivity 中,现在做一些代码上的解释。
class T02DisplayImageActivity : AppCompatActivity() {
private lateinit var mSurfaceView: MySurfaceView
override fun onCreate(savedInstanceState: Bundle?) {
super.onCreate(savedInstanceState)
setContentView(R.layout.activity_display_image)
// get image bitmap
val options = BitmapFactory.Options()
options.inScaled = false
val bitmap = BitmapFactory.decodeResource(resources, R.drawable.test, options)
mSurfaceView = findViewById(R.id.surfaceView_display_image)
mSurfaceView.setAspectRation(bitmap.width, bitmap.height)
mSurfaceView.holder.addCallback(object: SurfaceHolder.Callback{
override fun surfaceCreated(holder: SurfaceHolder) {
val surface = holder.surface
renderImage(surface, bitmap)
}
override fun surfaceChanged(p0: SurfaceHolder, format: Int, width: Int, height: Int) {
}
override fun surfaceDestroyed(p0: SurfaceHolder) {
}
})
}
external fun renderImage(surface: Surface, bitmap: Bitmap);
}
renderImage
方法做了什么,代码如下:
extern "C"
JNIEXPORT void JNICALL
Java_com_example_videoplayertutorials_T02DisplayImageActivity_renderImage(JNIEnv *env,
jobject thiz,
jobject surface,
jobject bitmap) {
AndroidBitmapInfo info;
AndroidBitmap_getInfo(env, bitmap, &info);
char *data = NULL;
AndroidBitmap_lockPixels(env, bitmap, (void **) &data);
ANativeWindow *nativeWindow = ANativeWindow_fromSurface(env, surface);
ANativeWindow_setBuffersGeometry(nativeWindow, info.width, info.height,
AHARDWAREBUFFER_FORMAT_R8G8B8A8_UNORM);
ANativeWindow_Buffer buffer;
ANativeWindow_lock(nativeWindow, &buffer, NULL);
auto *data_src_line = (int32_t *) data;
const auto src_line_stride = info.stride / sizeof(int32_t);
auto *data_dst_line = (uint32_t *) buffer.bits;
for (int y = 0; y < buffer.height; y++) {
std::copy_n(data_src_line, buffer.width, data_dst_line);
data_src_line += src_line_stride;
data_dst_line += buffer.stride;
}
ANativeWindow_unlockAndPost(nativeWindow);
AndroidBitmap_unlockPixels(env, bitmap);
ANativeWindow_release(nativeWindow);
}
通过AndroidBitmap_getInfo函数获取Bitmap的信息,包括宽度、高度、格式等。
通过AndroidBitmap_lockPixels函数锁定Bitmap的像素,防止在操作过程中被其他线程修改。
通过ANativeWindow_fromSurface函数获取Surface对应的ANativeWindow。
通过ANativeWindow_setBuffersGeometry函数设置ANativeWindow的缓冲区大小和格式。注意,这里我们设置的格式是 AHARDWAREBUFFER_FORMAT_R8G8B8A8_UNORM,也就是 RGBA 格式,因为我们的数据源 bitmap 它就是 RGBA 格式的。你可以在 AHardwareBuffer_Format
找到所有支持的格式,其中 YUV420 也是支持的。
通过ANativeWindow_lock函数锁定ANativeWindow的缓冲区,准备写入数据。
将Bitmap的像素数据复制到ANativeWindow的缓冲区。
通过ANativeWindow_unlockAndPost函数解锁ANativeWindow的缓冲区,并将缓冲区的内容显示到屏幕上。
通过AndroidBitmap_unlockPixels函数解锁Bitmap的像素。
通过ANativeWindow_release函数释放ANativeWindow。
如果你的代码正确,那么可以看到图片正常显示,如下图:
为了说明 View 大小的问题,让我们先将代码中的 MySurfaceView 全部改为 SurfaceView,运行代码后,你会发现图片显示时被拉伸填充了,如下图:
额,所以这是为啥嘞?让我们来分析分析:
了解了原因,那么如何解决这个问题呢?大致思路是去修改 view 的尺寸,让 view 适配视频的尺寸。具体的:
override fun onMeasure(widthMeasureSpec: Int, heightMeasureSpec: Int) {
super.onMeasure(widthMeasureSpec, heightMeasureSpec)
val width = MeasureSpec.getSize(widthMeasureSpec)
val height = MeasureSpec.getSize(heightMeasureSpec)
if(mWidth == 0){
setMeasuredDimension(width, height)
return
}
// calculate expected width by ratio
val expectedWidth = height * mWidth / mHeight
// if expected width is too big, set max width to expected width
if(expectedWidth >= width){
// to maintain aspect ratio, calculate expected height
val expectedHeight = width * mHeight / mWidth
setMeasuredDimension(width, expectedHeight)
}else{
// or the expected width can fit in the parent, set the expected width
setMeasuredDimension(expectedWidth, height)
}
}
expectedWidth = height * 16/9 = 2070 * 16/9 = 3680
expectedWidth >= width
说明如果按照宽高比对现有 view 进行等比例放大,那么超过目前可接受的最大宽度,无法满足。因此,我们转而去缩放 height,以便最终 view 的宽高比符合我们的预期。因此 w e x p H = 16 9 \frac{w}{expH}=\frac{16}{9} expHw=916 得到 val expectedHeight = width * mHeight / mWidth
。expectedWidth < width
说明当前的 view 可以放下,则直接设置 setMeasuredDimension(expectedWidth, height)
即可完成了上述的修改,我们使用 MySurfaceView 进行视频的显示,此时 View 的尺寸符合图片的宽高比,图片也不会被拉伸和缩放了
我们了解了如何使用 SurfaceView 显示图片,并解决了图片被拉伸的问题。显示视频那也就水到渠成了,视频只是很多张图片罢了。
首先,我们将上屏显示图像的模块进行封装,在 基于 FFmpeg 的跨平台视频播放器简明教程(十一):一种简易播放器的架构介绍 文中,VideoOutput
模块负责显示视频帧,我们新建一个叫 SurfaceViewVideoOutput
的类,用它来在 SurfaceView 上显示图片。具体代码在 j_andr_surfaceview_video_output 中,其中 drawFrame
完全与显示图片的代码是一致的:
int drawFrame(std::shared_ptr<Frame> frame) override {
if(nativeWindow_ == nullptr) {
LOGE("nativeWindow_ is null, can't drawFrame");
return -1;
}
ANativeWindow_Buffer buffer;
ANativeWindow_lock(nativeWindow_, &buffer, NULL);
// copy frame to buffer
auto *data_src_line = (int32_t *) frame->f->data[0];
const auto src_line_stride = frame->f->linesize[0] / sizeof(int32_t);
auto *data_dst_line = (uint32_t *) buffer.bits;
auto height = std::min(buffer.height, frame->f->height);
for (int y = 0; y < height; y++) {
std::copy_n(data_src_line, buffer.width, data_dst_line);
data_src_line += src_line_stride;
data_dst_line += buffer.stride;
}
ANativeWindow_unlockAndPost(nativeWindow_);
return 0;
}
接着,为了在 Android 上更容易使用 C/C++ 播放器代码,我们创建一个 SimplePlayer
的 Kotlin 类,它是对底层 j_video_player::SimplePlayer
的封装,所有与播放相关接口都通过 SimplePlayer 最终调用到 C/C++ 层。具体代码查看 SimplePlayer 以及它的 JNI 实现 jni_simple_player
完成了上面的动作,我们在 Android 上就能愉快地进行视频播放了,具体代码在 DisplayVideoActivity 中。
本文首先简略的介绍了 Android 图像的显示系统,引出 BufferQueue 的概念;接着介绍了 Surface 和 SurfaceView,Surface 关联着一个 BufferQueue,而 SurfaceView 持有一个 Surface;接下来,我们展示了如何在 SurfaceView 上显示图片,并解决图片宽高比与手机屏幕不一致导致的图像拉伸问题;最后,我们使用 SimplePlayer 在 SurfaceView 做视频播放。