不知道以前谁说过,图片太单调文字太枯燥,小视频刚刚好。现在各种自拍APP,直播APP都火的一塌糊涂,一年时间过大半,我都不记得上次写文章是什么时候了,废话不多说,今天这里就是分享给一下我自己学习用FFmepg来做小视频的过程,内容估计有点多,准备分两篇来完成,炎炎夏日就别嗑瓜子了,带上小板凳和西瓜跟着来。
目标功能:
1.编译出ffmpeg的so文件
2.可通过传递命令的方式调用ffmpeg功能。
1.新建一个项目FFmpegVideo
截一张图表示一下
2.下载ndk以及ffmepg
我这里下载的ndk版本是android-ndk_r14b
ffmepg版本是ffmpeg-3.3.2
也许当你看到这边篇文的时候最新版本已经比这个更高了,如果后面编译出现问题,很有可能跟版本有关系,所以如果你编译其他版本出现问题,需要你自己看懂脚本灵活变动。
ndk的环境变量的配置我这里就不多说了,不同的系统配置不一样,自行百度。
3.NDK配置好了吗?配置好了开始准备编译ffmpeg相关脚本文件。
打开ffmpeg-3.3.2文件夹并且创建一个文件夹(ffmpegtemp)和一个文件(build_android_armeabi_armeabi-v7a.sh)
(2)这里最主要的就是build_android_armeabi_armeabi-v7a.sh这个文件的内容,非常非常非常重要,把以下内容复制到你的这个文件中
#!/bin/bash
export TMPDIR=/Users/tangyx/Documents/ffmpeg-3.3.2/ffmpegtemp #这句很重要,不然会报错 unable to create temporary file in
# NDK的路径,根据自己的安装位置进行设置
NDK=/Users/tangyx/Documents/android-ndk_r14b
# 编译针对的平台,可以根据自己的需求进行设置
# 这里选择最低支持android-14, arm架构,生成的so库是放在
# libs/armeabi文件夹下的,若针对x86架构,要选择arch-x86
PLATFORM=$NDK/platforms/android-14/arch-arm
# 工具链的路径,根据编译的平台不同而不同
# arm-linux-androideabi-4.9与上面设置的PLATFORM对应,4.9为工具的版本号,
# 根据自己安装的NDK版本来确定,一般使用最新的版本
TOOLCHAIN=$NDK/toolchains/arm-linux-androideabi-4.9/prebuilt/darwin-x86_64
function build_one
{
./configure \
--prefix=$PREFIX \
--target-os=linux \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--arch=arm \
--sysroot=$PLATFORM \
--extra-cflags="-I$PLATFORM/usr/include" \
--cc=$TOOLCHAIN/bin/arm-linux-androideabi-gcc \
--nm=$TOOLCHAIN/bin/arm-linux-androideabi-nm \
--disable-shared \
--enable-runtime-cpudetect \
--enable-gpl \
--enable-small \
--enable-cross-compile \
--disable-debug \
--enable-static \
--disable-doc \
--disable-asm \
--disable-ffmpeg \
--disable-ffplay \
--disable-ffprobe \
--disable-ffserver \
--disable-postproc \
--disable-avdevice \
--disable-symver \
--disable-stripping \
$ADDITIONAL_CONFIGURE_FLAG
sed -i '' 's/HAVE_LRINT 0/HAVE_LRINT 1/g' config.h
sed -i '' 's/HAVE_LRINTF 0/HAVE_LRINTF 1/g' config.h
sed -i '' 's/HAVE_ROUND 0/HAVE_ROUND 1/g' config.h
sed -i '' 's/HAVE_ROUNDF 0/HAVE_ROUNDF 1/g' config.h
sed -i '' 's/HAVE_TRUNC 0/HAVE_TRUNC 1/g' config.h
sed -i '' 's/HAVE_TRUNCF 0/HAVE_TRUNCF 1/g' config.h
sed -i '' 's/HAVE_CBRT 0/HAVE_CBRT 1/g' config.h
sed -i '' 's/HAVE_RINT 0/HAVE_RINT 1/g' config.h
make clean
make -j4
make install
$TOOLCHAIN/bin/arm-linux-androideabi-ld \
-rpath-link=$PLATFORM/usr/lib \
-L$PLATFORM/usr/lib \
-L$PREFIX/lib \
-soname libffmpeg.so -shared -nostdlib -Bsymbolic --whole-archive --no-undefined -o \
$PREFIX/libffmpeg.so \
libavcodec/libavcodec.a \
libavfilter/libavfilter.a \
libswresample/libswresample.a \
libavformat/libavformat.a \
libavutil/libavutil.a \
libswscale/libswscale.a \
-lc -lm -lz -ldl -llog --dynamic-linker=/system/bin/linker \
$TOOLCHAIN/lib/gcc/arm-linux-androideabi/4.9.x/libgcc.a
}
# arm v7vfp
CPU=armv7-a
OPTIMIZE_CFLAGS="-mfloat-abi=softfp -mfpu=vfp -marm -march=$CPU "
PREFIX=./android/$CPU-vfp
ADDITIONAL_CONFIGURE_FLAG=
build_one
这里提醒吃瓜的朋友还是耐心看一下这个脚本的内容,因为我这次文章只会编译arm的so,其他框架(x86,arm64等)下的脚本我暂时不会提供,所以大概解释一下这个脚本的重要地方
图中红色地方就是每次需要编译不同框架下修改的地方。
这些对应的文件路径主要是你的ndk文件路径,其他不需要你去改动。
下半部分:
特别是第一个红色框中的lib这里默认是lib,我在编译x86_64框架的so时候忽略了这里,然后无论怎么样也编译不过,真的差点哭到放弃。
这里的lib的同级文件夹还有lib64,所以当你编译64位的框架(x86_64)的时候一定要修改引用到lib64的文件夹,否则会出现报错,出现一大堆找不到内容的错误。
4.好了脚本准备就绪了,我这里的脚本是编译出支持arm以及arm-v7a的so。
打开你的终端cd切换到你的ffmpeg-3.3.2下
切换完成后,就直接执行写好的脚本。
先这样
chmod +x build_android_armeabi_armeabi-v7a.sh
然后这样
./build_android_armeabi_armeabi-v7a.sh
最后这样感觉卡住了一样(耐心等待)
差不多你接杯水的时间回来,然后就这样了
这里编译的速度根据各自的电脑性能,我这里把水接好,在泡上咖啡时间刚刚差不多。
5等待编译完成后,打开ffmpeg-3.3.2文件夹发现多了一个文件夹(android)和文件(config.h)
文件就不管了,但是也不能删除,打开android文件夹不出意外是这样的
看见红色部分没有?看见没有?这就是最重要的成果,下面就需要把他放在我们对应的项目中去编译出可用的so文件,这个文件只是用来动态生成框架的so包,还不能直接在android中调用。
6回到Android Studio的新家项目FFmpegVideo中,在main下面新建文件夹jni
在这里需要说明一下,jni下编译so文件对应我们java类的native方法提供调用,一般情况都是需要编写c++和java对应的方法来进行调用,在这里如果按照方法的调用的模式,对于新手或者刚接触的人来说简直就是噩梦,所以这里有大神提供修改了ffmepg的c++源文件,直接可以通过命令的方式来调用ffmpeg的功能,真是前人栽树,后人乘凉,极大省去了很多麻烦,这样只需要了解学习ffmpeg的命令你就可以完成很多事情。
关于修改源码的内容和地方请通过这里查看(如果你感兴趣可以了解一下,反正我对c是个半吊子水平。)
接下来继续我们的搭建开发流程
- 新建一个包名和一个用来调用ffmpeg的类
2.获取c语言接口的函数声明
点击Android Studio最下方的Terminal窗口
切换到项目下的java目录下
然后执行以下命令
javah com.ihubin.ffmpegstudy.FFmpegKit
执行完成以后,刷新一下,src/main/java下会生成一个文件(根据项目不同的包名生成的文件名字不一样)com_tangyx_video_ffmpeg_FFmpegRun.h
把这个文件移动到jni文件下
还记得上面ffmpeg-3.3.2下android文件夹armv7-a-vfp中生成的那个libffmpeg.so文件么,拷贝它到项目的jni目录下
复制FFmpeg源码文件 ffmpeg.h, ffmpeg.c, ffmpeg_opt.c, ffmpeg_filter.c,cmdutils.c, cmdutils.h, cmdutils_common_opts.h 到jni目录下。
我这里的复制的ffmpeg.c和ffmpeg.h两个文件已经根据上面大神指导的方式修改好了,可以直接使用,最后的源码我也会上传,各位吃瓜群众可以直接使用。
在jni目录下手动创建三个文件
Android.mk
Application.mk
com_tangyx_video_ffmpeg_FFmpegRun.c(根据项目不同的包名生成的文件名字不一样,对应上面的.h文件)
**Android.mk **的内容:
LOCAL_PATH := $(call my-dir)
include $(CLEAR_VARS)
LOCAL_MODULE := ffmpeg
LOCAL_SRC_FILES := libffmpeg.so
include $(PREBUILT_SHARED_LIBRARY)
include $(CLEAR_VARS)
LOCAL_MODULE := ffmpeginvoke
LOCAL_SRC_FILES := com_tangyx_video_ffmpeg_FFmpegRun.c ffmpeg.c ffmpeg_opt.c cmdutils.c ffmpeg_filter.c
LOCAL_C_INCLUDES := /Users/tangyx/Documents/ffmpeg-3.3.2
LOCAL_LDLIBS := -llog -lz -ldl
LOCAL_SHARED_LIBRARIES := ffmpeg
include $(BUILD_SHARED_LIBRARY)
LOCAL_C_INCLUDES的路径记得修改为你当前ffmepg文件夹的路径。
LOCAL_SRC_FILES第一个c文件的引用记得改为你当前jni下生成的c文件。
** Application.mk **的内容:
APP_ABI := armeabi armeabi-v7a
APP_BUILD_SCRIPT := Android.mk
APP_PLATFORM := android-15
这里能够支持生成arm可用的so文件(不支持arm64)
com_tangyx_video_ffmpeg_FFmpegRun.c的内容:
#include "com_tangyx_video_ffmpeg_FFmpegRun.h"
#include "ffmpeg.h"
#include
/*
* Class: com_example_ffmpeg_FFmpegKit
* Method: run
* Signature: (Ljava/lang/String;)I
*/
JNIEXPORT jint JNICALL Java_com_tangyx_video_ffmpeg_FFmpegRun_run(JNIEnv *env,
jclass obj, jobjectArray commands) {
int argc = (*env)->GetArrayLength(env, commands);
char *argv[argc];
int i;
for (i = 0; i < argc; i++) {
jstring js = (jstring) (*env)->GetObjectArrayElement(env, commands, i);
argv[i] = (char*) (*env)->GetStringUTFChars(env, js, 0);
}
return run(argc, argv);
}
第一行的include引用你当前jni下生成的.h文件
Java_com_tangyx_video_ffmpeg_FFmpegRun_run需要改成你项目对应的包名和方法名(聪明的你仔细看一下就知道这个规则)
上面就是jni目录所有的文件以及需要你手动改动的地方,一个都不能少,一个都不能错,如果出错,根据错误提示进行修改。
6开始编译(最激动人心的时刻)
还是打开Terminal窗口并且切换到jni文件目录下
执行命令
ndk-build
等待编译完成,只要没有出现stop的情况,基本上没有任何问题
如果走到这里,那么恭喜你编译成功,刷新main目录,会多出2个文件夹分别是lib和obj
lib下的生成了对应框架下需要用到的so文件,把armeabi和armeabi-v7a两个文件夹考到jniLib或者main下面自己创建的libs文件夹下
我这里是自己创建的lib文件夹,所以在app module下build.gradle文件中新增内容
sourceSets {
main {
jniLibs.srcDirs = ['libs']
jni.srcDirs = []
}
}
到这里基本上我们项目中集成ffmpeg相关的工作已经完成,其他框架的so文件大家自己尝试编译,有问题再说,后面主要就是android 应用端怎么去使用ffmepg。
使用ffmpeg实现小视频制作
Android通过FFmpeg实现多段小视频合成