Android视频融合特效播放与渲染

AlphaPlayerPlus

一个有趣且很有创意的视频特效项目。

https://github.com/duqian291902259/AlphaPlayerPlus

前言

直播产品,需要更多炫酷的礼物特效,比如飞机特效,跑车特效,生日蛋糕融特效等,融合了直播流画面的特效。所以在字节开源的alphaPlayer库和特效VAP库的基础上进行改造,实现融合特效渲染。
支持将用户的头像、昵称、当前直播间的直播视频流等元素动态融合进视频特效中,增强用户的交互感和体验感。

Android实现

已经将原有的alphaPlayer进行升级改造,支持将用户的头像、昵称、当前直播间的直播视频流等元素动态融合进视频特效中,增强用户的交互感和体验感。

融合特效的技术原理

自研特效sdk,负责渲染视频特效。
美术负责制作特效视频,制作时将特效的颜色信息通过等分的视频区域存储,视频的左半边存放了特效原始的RGB信息,视频的右半边存放了特效的透明度和遮罩的透明度等信息。

透明视频的渲染

特效渲染时,读取左半部分纹理的RGB值,作为原始视频的主体颜色,右半部分纹理的R通道值作为Alpha值,得到视频纹理的rgba值,进行着色渲染,得到带透明度的特效纹理,如下图所示:


基于RGBA通道的透明视频融合特效渲染.png

视频融合遮罩素材

通常特效中的融合区域,会随着场景的变换,产生近大远小的透视3D效果,而不是维持标准的矩形形状。在图形渲染技术中,对于渲染的顶点坐标组成非平行四边形形状,GPU默认对组成四边形的两个三角形分别采用线性纹理插值的方式,渲染的结果可以看到两个三角形虽然在接缝处是连续的,单其导数(切线和双线向量)在此处不连续,效果无法达到预期,如图2所示。为解决这一问题,需要使用投影插值的方式,将融合纹理渲染的2D顶点坐标,通过透视变换的到贴合特效的形状,从而模拟3D的视觉效果。可以将这一过程抽象成将一个矩形,经过透视变换,得到一个非平行四边形的过程。

将带透明度的特效纹理,与融合元素的纹理,根据资源右侧部分的G值进行融合渲染。融合渲染的RGB= (特效纹理RGB)(1-右侧G)+(融合纹理RGB)(右侧G),融合渲染的Alpha值=(右侧R)(1-右侧G)+(右侧G)(右侧G)。得到融合后的特效纹理,最终渲染到设备屏幕上。

融合特效的数据管理

原始视频与遮罩素材的融合过程以及而遮罩的渲染,是在原有右边灰色视频的基础上,采用G通道值表示遮罩的区域,后续遮罩渲染需要根据G通道的值作为融合的透明度。
因视频数据帧比较多,里面的遮罩位置、个数、文字内容、文字颜色、图片展示形式,千差万别,渲染时直接处理,有很多东西是程序未知的,所以需要对素材预处理,提前得到这些信息,生成一份渲染专用的json配置文件。这份文件要么放在视频中,要么服务器下发(目前我们这两种方式都会采用,遮罩相关的信息放视频中,与用户相关的信息接口提供)。

1,预处理工具

负责获取特效渲染所需的资源数据和遮罩数据。遮罩素材,需要专门导出一个视频(右侧部分)用于识别遮罩的区域和色值。

2,Mp4播放渲染。

其中对遮罩的识别、坐标位置的确定、变换矩阵的生成,由工具识别素材视频,最终导出json格式,写入进mp4容器的自定义box中。
我们端上需要解析出json,然后封装成对应的实体类,方便渲染时读取遮罩信息,并替换成实际的文字、图片、直播帧数据。

融合特效渲染步骤

1,原有的特效视频渲染,支持带alpha通道的mp4视频。我们可以得到视频纹理id:mVideoTextureId,包含左右灰色和透明区域。
2,使用FBO,对文字,图片,直播流的数据进行二次处理,确定渲染的顶点位置和纹理坐标,渲染成屏幕大小的纹理:fboTextureId
3,将mVideoTextureId和fboTextureId传入最终融合的着色器处理,得到最终的展示效果。
以上三个步骤,面涉及到很多细节,需要了解OpenGL的坐标体系,绘制步骤和基本原理。具体可以参看项目代码。

流程图

融合渲染流程图.png

实现的效果

画中画效果.png

图片和文字渲染

接入说明

可以参看demo项目,暂未开放。demo只提供图片和文字融合效果的实现。
1,可以实现图片、视频流融合效果
2,图片+文字的融合效果
3,配置入口:PlayerController.get(configuration, mediaPlayer)
4,VideoGiftView,只是封装了PlayerController和播放容器。
5,音视频播放器可以自定义,也可以用现有的实现。AlphaMediaPlayer便于控制解码、渲染次数。
6,其他的播放器( DefaultSystemPlayer、ExoPlayerImpl)播放的话,渲染遮罩的帧索引需要将json中的index-1,否则无法对齐原始素材效果
7,ALog:内部log输出接口,外部可以自行实现打印。
8,IFetchResource:资源接口:外部传入文本、图片等资源给遮罩帧使用。

Android API说明

初始化配置信息、PlayerController

val configuration = Configuration(context,owner)
        //  GLTextureView supports custom display layer, but GLSurfaceView has better performance, and the GLSurfaceView is default.
        configuration.alphaVideoViewType = AlphaVideoViewType.GL_SURFACE_VIEW
        // AlphaMediaPlayer便于控制解码、渲染次数,其他的播放器,渲染帧索引需要将json中的数字-1,否则无法对齐
        //val mediaPlayer = DefaultSystemPlayer()
        //val mediaPlayer = ExoPlayerImpl(context)
        val mediaPlayer = AlphaMediaPlayer(context)
        mPlayerController = PlayerController.get(configuration, mediaPlayer)
        .//设置监听
        mPlayerController?.let {
            it.setPlayerAction(playerAction)
            it.setFetchResource(fetchResource)
            //it.setMonitor(monitor)
        }

设置流数据监听

    mPlayerController.setOnRenderLiveFrameListener(() -> {
        //通知外部,有遮罩需要用到视频流画面,开始渲染直播画面,自定实现监听流,本demo无流数据来源,暂不提供实现。
        // 然后将流里面的直播画面的数据共享到surfaceTexture,通过以下调用传回给sdk内部渲染:
    });
 

IPlayerAction接口

private val playerAction = object : IPlayerAction {
        override fun onVideoSizeChanged(videoWidth: Int, videoHeight: Int, scaleType: ScaleType) {
            Log.i(TAG, "视频实际的宽高改变,用户改变渲染容器size:onVideoSizeChanged,videoWidth=$videoWidth, videoHeight=$videoHeight,scaleType=$scaleType")
        }
        override fun startAction() {
            Log.i(TAG, "开始播放")
        }
        override fun endAction(status: Int, mVideoPath: String?) {
            Log.i(TAG, "结束播放,错误码和出错的url,方便做重新播放逻辑")
        }
    }

资源接口说明

interface IFetchResource {
    // 获取图片 (暂时不支持Bitmap.Config.ALPHA_8 主要是因为一些机型opengl兼容问题)
    fun fetchImage(resource: Resource, result: (Bitmap?) -> Unit)
    // 获取文字
    fun fetchText(resource: Resource, result: (String?) -> Unit)
    // 资源释放通知
    fun releaseResource(resources: List)
}

自定义Log

回调中使用自己的log实现

private fun initLog() {
        ALog.isDebug = BuildConfig.DEBUG
        ALog.log = ALogImp()

class ALogImp : IALog {
        override fun i(tag: String, msg: String) {
            Log.i(tag, msg)
        }
        override fun d(tag: String, msg: String) {
            Log.d(tag, msg)
        }
        override fun e(tag: String, msg: String) {
            Log.e(tag, msg)
        }
    }

测试demo,资源的路径

1,进入gift/demoRes/目录.
2,adb push demoRes /sdcard/alphaVideoGift/
3,build-->run.

注意事项:

demo的可以配置外部json
dataSource.configJsonPath = "/sdcard/alphaVideoGift/xxx.json"
也可以将json数据写入mp4视频,自定义一个box,播放视频前解析出json即可以不配置外部json

技术实现,部分代码

1,顶点、纹理坐标array

 val array = FloatArray(8)
private var floatBuffer: FloatBuffer = ByteBuffer
            .allocateDirect(array.size * 4)
            .order(ByteOrder.nativeOrder())
            .asFloatBuffer()
            .put(array)
            
fun setVertexAttribPointer(attributeLocation: Int) {
        if (attributeLocation < 0) {
            EGLUtil.checkGlError("return setVertexAttribPointer $attributeLocation")
            return
        }
        floatBuffer.position(0)
        GLES20.glVertexAttribPointer(attributeLocation, 2, GLES20.GL_FLOAT, false, 0, floatBuffer)
        GLES20.glEnableVertexAttribArray(attributeLocation)
        EGLUtil.checkGlError("setVertexAttribPointer $attributeLocation")
    }

2,设置坐标数组

  // 顶点坐标,遮罩渲染rect
        val rect = config.rgbPointRect
        vertexArray.setArray(
                VertexUtil.create(
                        config.renderWidth,
                        config.renderHeight,
                        rect,
                        vertexArray.array
                )
        )
        vertexArray.setVertexAttribPointer(shader.aPositionLocation)

3,顶点坐标的转换

    fun create(width: Int, height: Int, rect: PointRect, array: FloatArray): FloatArray {
        // x0
        array[0] = switchX(rect.x.toFloat() / width)
        // y0
        array[1] = switchY(rect.y.toFloat() / height)
        // x1
        array[2] = switchX(rect.x.toFloat() / width)
        // y1
        array[3] = switchY((rect.y.toFloat() + rect.height) / height)
        // x2
        array[4] = switchX((rect.x.toFloat() + rect.width) / width)
        // y2
        array[5] = switchY(rect.y.toFloat() / height)
        // x3
        array[6] = switchX((rect.x.toFloat() + rect.width) / width)
        // y3
        array[7] = switchY((rect.y.toFloat() + rect.height) / height)
        return array
    }
    
    private fun switchX(x: Float): Float {
        return x * 2f - 1f
    }
    private fun switchY(y: Float): Float {
        return -y * 2f + 1 //((y * 2f - 2f) * -1f) - 1f
    }

4,纹理坐标的转换

    fun create(width: Int, height: Int, rect: PointRect, array: FloatArray): FloatArray {
        // x0
        array[0] = rect.x.toFloat() / width
        // y0
        array[1] = rect.y.toFloat() / height
        // x1
        array[2] = rect.x.toFloat() / width
        // y1
        array[3] = (rect.y.toFloat() + rect.height) / height
        // x2
        array[4] = (rect.x.toFloat() + rect.width) / width
        // y2
        array[5] = rect.y.toFloat() / height
        // x3
        array[6] = (rect.x.toFloat() + rect.width) / width
        // y3
        array[7] = (rect.y.toFloat() + rect.height) / height
        return array
    }

部分融合的顶点、片元着色器

class FinalMixShader {
    companion object {
        private const val NO_POSITION = -1

        private const val VERTEX = """
                attribute vec4 a_Position;  
                attribute vec2 a_TexCoordinateSrc;
                attribute vec4 a_TexCoordinateRgb;
                attribute vec4 a_TexCoordinateAlpha;
                varying vec2 v_TexCoordinateSrc;
                varying vec2 v_TexCoordinateRgb;
                varying vec2 v_TexCoordinateAlpha;
                void main()
                {
                    v_TexCoordinateAlpha = vec2(a_TexCoordinateAlpha.x, a_TexCoordinateAlpha.y);
                    v_TexCoordinateRgb = vec2(a_TexCoordinateRgb.x, a_TexCoordinateRgb.y);
                    v_TexCoordinateSrc = a_TexCoordinateSrc;
                    gl_Position = a_Position;
                }
        """

        private const val FRAGMENT = """
                #extension GL_OES_EGL_image_external : require
                precision mediump float; 
                uniform sampler2D u_TextureSrcUnit;
                uniform samplerExternalOES u_TextureVideoUnit;
                varying vec2 v_TexCoordinateSrc;
                varying vec2 v_TexCoordinateRgb;
                varying vec2 v_TexCoordinateAlpha;
                void main()
                {
                    vec4 alphaColor = texture2D(u_TextureVideoUnit, v_TexCoordinateAlpha);
                    vec4 rgbColor = texture2D(u_TextureVideoUnit, v_TexCoordinateRgb);
                    vec4 srcRgba = texture2D(u_TextureSrcUnit, v_TexCoordinateSrc);
                    if (srcRgba.rgb == vec3(0.0, 0.0, 0.0) || srcRgba.a == 0.0) {
                        gl_FragColor = vec4(rgbColor.rgb,alphaColor.r);
                    } else {
                         mediump float green = alphaColor.g;
                         mediump float percent = green;
                         gl_FragColor = vec4(mix(rgbColor.rgb, srcRgba.rgb, percent), mix(rgbColor.a, green, percent));
                    }
                }
        """
    }
}

部分OpenGL渲染

 // 传入遮罩纹理和视频纹理
        if (fboTextureId >= 0) {
            GLES20.glActiveTexture(GLES20.GL_TEXTURE0)
            GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, fboTextureId)
            GLES20.glUniform1i(shader.uTextureSrcUnitLocation, 0)
        }
        if (mVideoTextureId >= 0) {
            GLES20.glActiveTexture(GLES20.GL_TEXTURE1)
            GLES20.glBindTexture(VideoRender.GL_TEXTURE_EXTERNAL_OES, mVideoTextureId)
            GLES20.glUniform1i(shader.uTextureMaskUnitLocation, 1)
        }

        EGLUtil.enableBlend()
        // draw
        GLES20.glDrawArrays(GLES20.GL_TRIANGLE_STRIP, 0, 4)
        EGLUtil.checkGlError("final mix render")

其他说明

本文主要是Android端的实现,是技术预研阶段的设计思想和某些实现,实际应用中的会有更多拓展和优化。仅供学习交流,是在已有开源项目的基础上的拓展和学习。文章如有侵权,可以留言联系杜小菜。
早期sdk版本可参看:
https://github.com/duqian291902259/AlphaPlayerPlus

你可能感兴趣的:(Android视频融合特效播放与渲染)