Android Studio NDK开发(十二):FFmpeg编译与配置

1. 前言

因为FFmpeg是基于Linux开发的开源项目,如果在wins下编译FFmpeg,需要配置Linux相关环境,比较麻烦,而由于我本人的电脑系统是wins的,还不打算换成Linux系统的,安装虚拟机编译FFmpeg又比较慢,遂买了一个阿里云服务器(当然也不仅仅用在此处,我之后会将它作为服务器用),暂时作为Linux系统的电脑,用于FFmpeg的编译,如果你的电脑是Linux系统的,直接可以编译FFmpeg,则无需购买。

2. 购买阿里云主机

阿里云官网

选择ubuntu 16.04 64位

Android Studio NDK开发(十二):FFmpeg编译与配置_第1张图片
1.png

购买主机的过程中,要记住用户名、登录名、公网IP等,以待备用。我买的是最低配置,也就够用了,一个月大概60元。

3. Xshell的安装---傻瓜式安装

Android Studio NDK开发(十二):FFmpeg编译与配置_第2张图片
2.png

点击新建:

Android Studio NDK开发(十二):FFmpeg编译与配置_第3张图片
3.png

新建会话中输入自己会话的名称,随意起都行,我这里是zhangpan,主机填的是购买的阿里云提供的公网IP(一般通过短信会通知到,或者自行在阿里云的管理控制台查看),点击确定,连接,可能第一次连接不上,你只需重新连接,然后输出用户名和密码(对应的是阿里云你输入的用户名和密码),连接上之后,大致如图:

Android Studio NDK开发(十二):FFmpeg编译与配置_第4张图片
4.png

4. Xftp安装

也基本是傻瓜式安装,就是需要注意下面选择免费为家庭/学校,免费的大家都懂

Android Studio NDK开发(十二):FFmpeg编译与配置_第5张图片
5.png

安装完成之后,关闭Xftp客户端,在Xshell客户端中点击新建文件传输

6.png

需要输入密码,还是对应之前的密码,输入完成点击确定

Android Studio NDK开发(十二):FFmpeg编译与配置_第6张图片
7.png

表示已经登录完成,点击右侧的文件夹,找到usr目录

5. 上传ndk

首先在usr目录中创建ndk文件夹,
在Xshell命令行中输入

cd /usr
mkdir ndk

在Xftp中刷新就可以看见在usr目录下看见ndk文件夹,点击进去,里面现在是空的。
在Xftp中的左侧找到wins电脑的的ndk文件(Linux版本),我这里的版本是android-ndk-r10e-linux-x86_64.bin,右键点击传输,就可以在下方看到传输进度条了

8.png

6. 解压ndk

等ndk上传完成后,就可以解压ndk了,首先我们需要目录给权限

cd ../
chmod 777 -R ndk

cd ../ 回到usr目录下
给ndk增加权限

cd ndk
./android-ndk-r10e-linux-x86_64.bin

进行ndk解压过程,需要等待几分钟,解压完成命令行如图:

Android Studio NDK开发(十二):FFmpeg编译与配置_第7张图片
9.png

7. ndk环境变量的配置

cd ~
vim ~/.bashrc

~代表用户,点击i键进入编辑模式,在最后添加上下图所示配置:

10.png

ESC退出编辑模式,shift + z z 退出命令模式

验证ndk是否配置成功

source ~/.bashrc
ndk-build -v

source ~/.bashrc:更新环境变量

出现下图所示,表示配置成功

Android Studio NDK开发(十二):FFmpeg编译与配置_第8张图片
11.png

8. 上传FFmpeg

新建一个zhangpan文件夹在usr目录下

mkdir zhangpan

mkdir zhangpan在usr目录下生成zhangpan文件夹,在Xftp客户端右侧刷新找到zhangpan文件夹,点击进去,然后在左侧找到fmpeg对应wins电脑中的位置(我这里的版本是ffmpeg-2.6.9.zip),右键选择传输,就可以看的ffmpeg传输进度条了。此处给上FFmpeg官网地址:http://ffmpeg.org/,直接Download ---> Download 就可以下载。

9. 解压FFmpeg

命令行进入zhangpan目录下,然后执行解压操作:

unzip ffmpeg-2.6.9.zip

发现没有解压工具,需要安装:

sudo apt-get install zip

如果一直提示不成功,可以先更新

sudo apt-get update

然后再安装,这时候就成功了,然后执行解压操作,解压过程很快就会成功。

10. 编译FFmpeg

编写shell脚本文件build_android.sh,这个脚本是用来执行ffmpeg下的configure配置的:

#!/bin/bash
make clean
export NDK=/usr/ndk/android-ndk-r10e
export SYSROOT=$NDK/platforms/android-9/arch-arm/
export TOOLCHAIN=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt/linux-x86_64
export CPU=arm
export PREFIX=$(pwd)/android/$CPU
export ADDI_CFLAGS="-marm"

./configure --target-os=linux \
--prefix=$PREFIX --arch=arm \
--disable-doc \
--enable-shared \
--disable-static \
--disable-yasm \
--disable-symver \
--enable-gpl \
--disable-ffmpeg \
--disable-ffplay \
--disable-ffprobe \
--disable-ffserver \
--disable-doc \
--disable-symver \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--enable-cross-compile \
--sysroot=$SYSROOT \
--extra-cflags="-Os -fpic $ADDI_CFLAGS" \
--extra-ldflags="$ADDI_LDFLAGS" \
$ADDITIONAL_CONFIGURE_FLAG
make clean
make
make install

注意ndk的位置,我这里是/usr/ndk/android-ndk-r10e,大家可以更改这里,由于目前是生成arm的so库,所以这里配置的CPU=arm,如果要生成x86的so库,直接更改CPU=x86就行。
将build_android.sh脚本传输到ffmpeg的目录下,还是通过右键选择传输,如果该脚步文件是在win中编写的,再上传到Linux中,可能还需要用到dos2unix命令去转换。

先切换到zhangpan目录下,然后添加权限

chmod 777 -R ffmpeg-2.6.9

切换到ffmpeg目录下,执行脚步

./build_android.sh

脚本大概需要十分钟不到就能完成,结束之后,按照下图执行命令行,说明FFmpeg编译成功

12.png

但是这样还是不够的,因为Android只能识别.so结尾的so库,上述中有比如libavcodec.so.56是不符合要求的,那我们应该怎么做呢?我们在wins下更改ffmpeg目录下的configure

SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'
LIB_INSTALL_EXTRA_CMD='$$(RANLIB) "$(LIBDIR)/$(LIBNAME)"'
SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'
SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR) $(SLIBNAME)'

找到这段配置,改成如下配置:

SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'
LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'
SLIB_INSTALL_LINKS='$(SLIBNAME)'

最终更改后的配置如图:

Android Studio NDK开发(十二):FFmpeg编译与配置_第9张图片
13.png

还是一样,在Xftp客户端左侧找到改后的configure文件,右键选择传输(注意右侧应在ffmpeg目录下)

在重新编译之前,我们删除掉上次编译生成的android文件夹,在ffmpeg目录下:

rm -rf android

然后重新编译

./build_android.sh
14.png

这样符合要求的so库就生成了。大功告成!!!

现在我们来将android这个文件夹传输到wins下,为了传输速度较快,我首先将其压缩,cd到ffmpeg-2.6.9目录下,然后执行

zip -r android.zip android

压缩之后,在Xftp中将其右键传输到你wins所在的目录,然后解压,以待备用。

测试FFmpeg

创建一个Android Studio项目zpplayer,勾上C/C++ suport,将上面解压好的android目录下的include文件夹复制到cpp文件夹下,然后将arm/lib下的下列so库拷贝到项目中的libs目录下的armeabi文件夹下(armeabi文件夹自行创建)

libavutil-54.so
libavcodec-56.so
libavdevice-56.so
libswresample-1.so
libswscale-3.so
libavfilter-5.so
libavformat-56.so
libpostproc-53.so

在cpp目录下,新建zp_decode.c,CMakeLists配置:

cmake_minimum_required(VERSION 3.4.1)

set(path_project E:/AndroidStudio_WorkSpace/zpplayer)

add_library(zp_decode
            SHARED
            src/main/cpp/zp_decode.c)

add_library(avcodec SHARED IMPORTED)
set_target_properties(avcodec PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libavcodec-56.so)

add_library(avdevice SHARED IMPORTED)
set_target_properties(avdevice PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libavdevice-56.so)

add_library(avfilter SHARED IMPORTED)
set_target_properties(avfilter PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libavfilter-5.so)

add_library(avformat SHARED IMPORTED)
set_target_properties(avformat PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libavformat-56.so)
add_library(avutil SHARED IMPORTED)
set_target_properties(avutil PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libavutil-54.so)

add_library(postproc SHARED IMPORTED)
set_target_properties(postproc PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libpostproc-53.so)

add_library(swresample SHARED IMPORTED)
set_target_properties(swresample PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libswresample-1.so)

add_library(swscale SHARED IMPORTED)
set_target_properties(swscale PROPERTIES IMPORTED_LOCATION
                      ${path_project}/app/libs/${ANDROID_ABI}/libswscale-3.so)

include_directories(src/main/cpp/include)

find_library(log-lib
             log )

target_link_libraries(zp_decode
                      avutil
                      avcodec
                      avdevice
                      swresample
                      swscale
                      avfilter
                      avformat
                      postproc
                      ${log-lib})

配置app.gradle,在cmake中添加

abiFilters "armeabi"

android中添加

sourceSets {
        main {
            jniLibs.srcDirs = ['libs']
        }
    }

因为只要在创建项目,就会自动创建CMakeList中对应的app.gradle配置,如果没有勾选,需要自己手动添加,下面是我项目中的app.gradle:

apply plugin: 'com.android.application'

android {
    compileSdkVersion 26
    defaultConfig {
        applicationId "com.zhangpan.zpplayer"
        minSdkVersion 15
        targetSdkVersion 26
        versionCode 1
        versionName "1.0"
        testInstrumentationRunner "android.support.test.runner.AndroidJUnitRunner"
        externalNativeBuild {
            cmake {
                cppFlags ""
                abiFilters "armeabi"
            }
        }
    }
    buildTypes {
        release {
            minifyEnabled false
            proguardFiles getDefaultProguardFile('proguard-android.txt'), 'proguard-rules.pro'
        }
    }
    externalNativeBuild {
        cmake {
            path "CMakeLists.txt"
        }
    }
    sourceSets {
        main {
            jniLibs.srcDirs = ['libs']
        }
    }
}

dependencies {
    implementation fileTree(dir: 'libs', include: ['*.jar'])
    implementation 'com.android.support:appcompat-v7:26.1.0'
    implementation 'com.android.support.constraint:constraint-layout:1.0.2'
    testImplementation 'junit:junit:4.12'
    androidTestImplementation 'com.android.support.test:runner:0.5'
    androidTestImplementation 'com.android.support.test.espresso:espresso-core:3.0.1'
}

清单文件配置权限




创建VideoUtils

public class VideoUtils {
    public native static void decode(String inputPath, String outputPath);

    static {
        System.loadLibrary("zp_decode");
    }
}

这里不需要再加载FFmpeg中的so库了,因为CMakeList中的target_link_libraries已经配置,如果再加载,就会加载两次,大家切记切记!!这也是很多博客没有考虑到的。

zp_decode.c中JNI代码的编写:

//
// Created by zp on 2017/12/5.
//
#include 
#include 

//解码
#include "libavcodec/avcodec.h"
//封装格式
#include "libavformat/avformat.h"
//缩放
#include "libswscale/swscale.h"

#define LOGI(FORMAT, ...) __android_log_print(ANDROID_LOG_INFO, "zp", FORMAT, ##__VA_ARGS__);
#define LOGE(FORMAT, ...) __android_log_print(ANDROID_LOG_ERROR, "zp", FORMAT, ##__VA_ARGS__);

JNIEXPORT void JNICALL
Java_com_zhangpan_zpplayer_util_VideoUtils_decode(JNIEnv *env, jclass type, jstring input_jstr,
jstring output_jstr) {
    const char* input_cstr = (*env) -> GetStringUTFChars(env, input_jstr, NULL);
    const char* output_cstr = (*env) -> GetStringUTFChars(env, output_jstr, NULL);

    //1. 注册所有组件
    av_register_all();

    //封装格式上下文
    AVFormatContext* pFormatCtx = avformat_alloc_context();
    //2. 打开输入视频文件,成功返回0,第三个参数为NULL,表示自动检测文件格式
    if (avformat_open_input(&pFormatCtx, input_cstr, NULL, NULL) != 0) {
        LOGE("%s", "打开输入视频文件失败");
        return;
    }

    //3. 获取视频文件信息
    if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
        LOGE("%s", "获取视频文件信息失败");
        return;
    }

    //查找视频流所在的位置
    //遍历所有类型的流(视频流、音频流可能还有字幕流),找到视频流的位置
    int video_stream_index = -1;
    int i = 0;
    for(; i < pFormatCtx -> nb_streams; i++) {
        if (pFormatCtx->streams[i]->codec-> codec_type == AVMEDIA_TYPE_VIDEO) {
            video_stream_index = i;
            break;
        }
    }

    //编解码上下文
    AVCodecContext* pCodecCtx = pFormatCtx->streams[video_stream_index]->codec;
    //4. 查找解码器 不能通过pCodecCtx->codec获得解码器
    AVCodec* pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
    if (pCodec == NULL) {
        LOGE("%s", "查找解码器失败");
        return;
    }

    //5. 打开解码器
    if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) {
        LOGE("%s", "打开解码器失败");
        return;
    }

    //编码数据
    AVPacket* pPacket = (AVPacket*)av_malloc(sizeof(AVPacket));

    //像素数据(解码数据)
    AVFrame* pFrame = av_frame_alloc();
    AVFrame* pYuvFrame = av_frame_alloc();

    FILE* fp_yuv = fopen(output_cstr, "wb");

    //只有指定了AVFrame的像素格式、画面大小才能真正分配内存
    //缓冲区分配内存
    uint8_t* out_buffer = (uint8_t*)av_malloc(avpicture_get_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));
    //初始化缓冲区
    avpicture_fill((AVPicture*)pYuvFrame, out_buffer, AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);

    //srcW:源图像的宽
    //srcH:源图像的高
    //srcFormat:源图像的像素格式
    //dstW:目标图像的宽
    //dstH:目标图像的高
    //dstFormat:目标图像的像素格式
    //flags:设定图像拉伸使用的算法
    struct SwsContext* pSwsCtx = sws_getContext(
            pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
            pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_YUV420P,
            SWS_BILINEAR, NULL, NULL, NULL);

    int got_frame, len, frameCount = 0;
    //6. 从输入文件一帧一帧读取压缩的视频数据AVPacket
    while(av_read_frame(pFormatCtx, pPacket) >= 0) {
        if (pPacket->stream_index == video_stream_index) {
            //7. 解码一帧压缩数据AVPacket ---> AVFrame,第3个参数为0时表示解码完成
            len = avcodec_decode_video2(pCodecCtx, pFrame, &got_frame, pPacket);

            if (len < 0) {
                LOGE("%s", "解码失败");
                return;
            }
            //AVFrame ---> YUV420P
            //srcSlice[]、dst[]        输入、输出数据
            //srcStride[]、dstStride[] 输入、输出画面一行的数据的大小 AVFrame 转换是一行一行转换的
            //srcSliceY                输入数据第一列要转码的位置 从0开始
            //srcSliceH                输入画面的高度
            sws_scale(pSwsCtx,
                      pFrame->data, pFrame->linesize, 0, pFrame->height,
                      pYuvFrame->data, pYuvFrame->linesize);

            //非0表示正在解码
            if (got_frame) {
                //图像宽高的乘积就是视频的总像素,而一个像素包含一个y,u对应1/4个y,v对应1/4个y
                int yuv_size = pCodecCtx->width * pCodecCtx->height;
                //写入y的数据
                fwrite(pYuvFrame->data[0], 1, yuv_size, fp_yuv);
                //写入u的数据
                fwrite(pYuvFrame->data[1], 1, yuv_size/4, fp_yuv);
                //写入v的数据
                fwrite(pYuvFrame->data[2], 1, yuv_size/4, fp_yuv);

                LOGI("解码第%d帧", frameCount++);
            }
            av_free_packet(pPacket);
        }
    }

    fclose(fp_yuv);
    av_frame_free(&pFrame);
    av_frame_free(&pYuvFrame);
    avcodec_free_context(&pCodecCtx);
    avformat_free_context(pFormatCtx);

    (*env) -> ReleaseStringUTFChars(env, input_jstr, input_cstr);
    (*env) -> ReleaseStringUTFChars(env, output_jstr, output_cstr);
}

这里只为了测试,可不必追究细节,下篇博客将逐一介绍:Android Studio NDK开发(十三):FFmpeg视频解码

MainActivity的编写

public class MainActivity extends AppCompatActivity {

    @Override
    protected void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
        setContentView(R.layout.activity_main);
    }

    public void mDecode(View btn){
        String input = new File(Environment.getExternalStorageDirectory(),"girls.mp4").getAbsolutePath();
        String output = new File(Environment.getExternalStorageDirectory(),"output.avi").getAbsolutePath();
        VideoUtils.decode(input, output);
    }
}

布局文件很简单:




    

编译运行,Logcat输出为:

Android Studio NDK开发(十二):FFmpeg编译与配置_第10张图片
15.png

上图表示运行成功,也就是说我们编译FFmpeg成功!!OK!收工!!

最后我们介绍一下Vim编辑器:

Vim编辑器

Vim是一个功能强大、高度定制的文本编辑器。Vim强大的编辑能力中很大部分是来自于其普通模式命令。Vim的设计理念是命令的组合。
一般现在的版本都会自带Vim,这里如果没有的话,可以自己安装Vim,命令行输入

sudo apt-get install vim-gtk

验证是否成功安装,输入vim,如果成功,如下图

Android Studio NDK开发(十二):FFmpeg编译与配置_第11张图片
16.png

如果没成功,可先更新,再安装Vim

apt-get update
sudo apt-get install vim-gtk

Vim相关指令

强制退出:shift + : 然后输入q!
保存退出:shift + z z
由命令模式进入编辑模式:i
由编辑模式进入命令模式:Esc
命令模式中删除:x
命令模式中删除行:dd

Vim配置:

进入Vim配置信息中:

vim /etc/vim/vimrc

在配置信息最后加上下列配置:

set nu 显示行号
set cursorline 高亮显示当前行
set ruler 在右下角显示光标位置(具体的行、列)

展望

喜欢本篇博客的简友们,就请来一波点赞,您的每一次关注,将成为我前进的动力,谢谢!

你可能感兴趣的:(Android Studio NDK开发(十二):FFmpeg编译与配置)