视频播放器就是将一个封装的格式数据进行解封装,得到对应的音频压缩数据和视频压缩数据,再进行相应的音视频解码,得到音频采样数据和视频采样数据,最后将音频采样数据和视频采样数据同时播放,达到音视频同步。
将封装格式的数据,分离成为音频流压缩编码数据和视频流压缩编码数据。封装格式种类很多,例如MP4,MKV,RMVB,TS,FLV,AVI等等,它的作用就是将已经压缩编码的视频数据和音频数据按照一定的格式放到一起,输出特定编码格式的视频码流和A音频码流。
一般我们常见的音频压缩编码标准包含AAC,MP3,AC-3,WMA 等等;通过解码将压缩编码的音频数据输出成为非压缩的音频采样数据,例如PCM数据
采样率:也称为采样速度或者采样率,定义了每秒从连续信号中提取并组成离散信号的采样个数,它用赫兹(Hz)来表示。采样频率的倒数是采样周期或者叫作采样时间,它是采样之间的时间间隔。通俗的讲采样频率是指计算机每秒钟采集多少个信号样本。
一般我们常见的视频的压缩编码标准则包含H.264,MPEG2,VC-1等等;压缩编码的视频数据输出成为视频像素数据(非压缩的颜色数据),例如YUV(YUV420P,YUV422P,YUV444P;最常见为YUV420P),RGB(RGB24,RGB32)等等。Y:亮度,U:色度,V:浓度
根据解封装模块过程中获取到的参数信息,同步解码得到的音频和视频数据,并将音频和视频数据送至系统的声卡和显卡播放出来。
FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。采用LGPL或GPL许可证。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编解码库libavcodec,为了保证高可移植性和编解码质量,libavcodec里很多code都是从头开发的。
命令参数 | 说明 |
---|---|
-i | 源文件 |
-o | 输出文件 |
//进入到FFmpeg 的 bin 目录下执行以下命令
ffmpeg -i d:\\input.mp4 -o d:\\output.avi
命令参数 | 说明 |
---|---|
-i | 源文件 |
-ss | 从多少秒开始 |
-t | 到多少秒介绍 |
-s | 图像的尺寸大小 |
-b:v | 码率 |
//进入到FFmpeg 的 bin 目录下执行以下命令
ffmpeg -ss 5 -t 15 -i d:\\input.mp4 -s 300x200 -b:v 1500K D:\\video_gif.gif
*注:项目根目录即创建cpp源文件所在目录
步骤:
avcodec.lib
avdevice.lib
avfilter.lib
avformat.lib
avutil.lib
postproc.lib
swresample.lib
swscale.lib
#include
#include
//C和C++混编,指示编译器按照C语言进行编译
extern "C"{
//引入ffmpeg的头文件
#include "libavcodec/avcodec.h"
};
void main() {
//输出 ffmpeg 的配置
printf("%s\n",avcodec_configuration());
getchar();
}
$ apt-get update
$ sudo apt-get install vim-gtk
//给文件授权可执行
$ chmod 777 -R android-ndk-r10e-linux-x86_64.bin
//执行文件
$ ./android-ndk-r10e-linux-x86_64.bin
//配置环境变量
$ vim ~/.bashrc
//增加环境变量
export NDKROOT=/home/study/ndk/android-ndk-r10e
export PATH=$NDKROOT:$PATH
$ source ~/.bashrc
//查看ndk版本号
$ ndk-build -v
$ tar -xzvf ffmpeg-4.1.2.tar.gz
#!/bin/bash
make clean
export NDK=/home/study/ndk/android-ndk-r10e
export SYSROOT=$NDK/platforms/android-9/arch-arm/
export TOOLCHAIN=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt/linux-x86_64
export CPU=arm
export PREFIX=$(pwd)/android/$CPU
export ADDI_CFLAGS="-marm"
./configure --target-os=linux \
--prefix=$PREFIX --arch=arm \
--disable-doc \
--enable-shared \
--disable-static \
--disable-yasm \
--disable-symver \
--enable-gpl \
--disable-ffmpeg \
--disable-ffplay \
--disable-ffprobe \
--disable-ffserver \
--disable-doc \
--disable-symver \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--enable-cross-compile \
--sysroot=$SYSROOT \
--extra-cflags="-Os -fpic $ADDI_CFLAGS" \
--extra-ldflags="$ADDI_LDFLAGS" \
$ADDITIONAL_CONFIGURE_FLAG
make clean
make
make install
执行脚本文件
./android_build.sh
cmake_minimum_required(VERSION 3.4.1)
set(DISTRIBUTION_DIR ${CMAKE_SOURCE_DIR}/../jniLibs/)
add_library( # Sets the name of the library.
ffmpeg-video
SHARED
ffmpeg_video.c)
# 编解码(最重要的库)
add_library(
avcodec
SHARED
IMPORTED
)
#指定编码库的位置
set_target_properties(
avcodec
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libavcodec-56.so
)
#设备信息
add_library(
avdevice
SHARED
IMPORTED
)
#指定设备信息的位置
set_target_properties(
avdevice
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libavdevice-56.so
)
#滤镜特效处理库
add_library(
avfilter
SHARED
IMPORTED
)
#指定滤镜库位置
set_target_properties(
avfilter
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libavfilter-5.so
)
#封装格式处理库
add_library(
avformat
SHARED
IMPORTED
)
#指定格式库路径
set_target_properties(
avformat
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libavformat-56.so
)
#工具库(大部分库都需要这个库的支持)
add_library(
avutil
SHARED
IMPORTED
)
#指定工具库路径
set_target_properties(
avutil
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libavutil-54.so
)
#后期处理
add_library(
postproc
SHARED
IMPORTED
)
#指定后期处理库路径
set_target_properties(
postproc
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libpostproc-53.so
)
#数据格式转换库
add_library(
swresample
SHARED
IMPORTED
)
#指定库位置
set_target_properties(
swresample
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libswresample-1.so
)
#视频像素数据格式转换
add_library(
swscale
SHARED
IMPORTED
)
#视频像素格式转换库位置
set_target_properties(
swscale
PROPERTIES IMPORTED_LOCATION
${DISTRIBUTION_DIR}/${ANDROID_ABI}/libswscale-3.so
)
find_library(
android-lib
android
)
find_library(
log-lib
log
)
find_library(
jnigraphics-lib
jnigraphics
)
# 将预构建库与本地库相连
target_link_libraries(
ffmpeg-video
avcodec
avdevice
avfilter
avformat
avutil
postproc
swresample
swscale
${android-lib}
${jnigraphics-lib}
${log-lib}
)
package cn.onestravel.ndk.ffmpegdecodedemo;
public class VideoUtils {
static {
System.loadLibrary("avutil-54");
System.loadLibrary("avcodec-56");
System.loadLibrary("avdevice-56");
System.loadLibrary("avfilter-5");
System.loadLibrary("avformat-56");
System.loadLibrary("postproc-53");
System.loadLibrary("swresample-1");
System.loadLibrary("swscale-3");
System.loadLibrary("ffmpeg-video");
}
public native static void decode(String input,String output);
}
//
// Created by Administrator on 2019/3/27.
//
//
// Created by Administrator on 2019/3/26.
//
#include
#include "cn_onestravel_ndk_ffmpegdecodedemo_VideoUtils.h"
//编码
#include "include/libavcodec/avcodec.h"
//封装格式处理
#include "include/libavformat/avformat.h"
//像素处理
#include "include/libswscale/swscale.h"
#include "include/libavutil/avutil.h"
#include "include/libavutil/frame.h"
#define LOGI(FORMAT,...) __android_log_print(ANDROID_LOG_INFO,"FFMPEG",FORMAT,##__VA_ARGS__);
#define LOGE(FORMAT,...) __android_log_print(ANDROID_LOG_ERROR,"FFMPEG",FORMAT,##__VA_ARGS__);
/*
* Class: cn_onestravel_ndk_ffmpegdecode_VoideUtils
* Method: decode
* Signature: (Ljava/lang/String;Ljava/lang/String;)V
*/
JNIEXPORT void JNICALL Java_cn_onestravel_ndk_ffmpegdecodedemo_VideoUtils_decode
(JNIEnv * env, jclass jcls, jstring input_jstr, jstring output_jstr){
//需要转码的视频文件(输入的视频文件)
const char* input_cstr = (*env)->GetStringUTFChars(env,input_jstr,NULL);
const char* output_cstr = (*env)->GetStringUTFChars(env,output_jstr,NULL);
//1.注册所有组件
av_register_all();
//封装格式上下文,统领全局的结构体,保存了视频文件封装格式的相关信息
AVFormatContext *pFormatCtx = avformat_alloc_context();
//2.打开输入视频文件
if (avformat_open_input(&pFormatCtx, input_cstr, NULL, NULL) != 0)
{
LOGE("%s","无法打开输入视频文件");
return;
}
//3.获取视频文件信息
if (avformat_find_stream_info(pFormatCtx,NULL) < 0)
{
LOGE("%s","无法获取视频文件信息");
return;
}
//获取视频流的索引位置
//遍历所有类型的流(音频流、视频流、字幕流),找到视频流
int v_stream_idx = -1;
int i = 0;
//number of streams
for (; i < pFormatCtx->nb_streams; i++)
{
//流的类型
if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
{
v_stream_idx = i;
break;
}
}
if (v_stream_idx == -1)
{
LOGE("%s","找不到视频流\n");
return;
}
//只有知道视频的编码方式,才能够根据编码方式去找到解码器
//获取视频流中的编解码上下文
AVCodecContext *pCodecCtx = pFormatCtx->streams[v_stream_idx]->codec;
//4.根据编解码上下文中的编码id查找对应的解码
AVCodec *pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
//(迅雷看看,找不到解码器,临时下载一个解码器)
if (pCodec == NULL)
{
LOGE("%s","找不到解码器\n");
return;
}
//5.打开解码器
if (avcodec_open2(pCodecCtx,pCodec,NULL)<0)
{
LOGE("%s","解码器无法打开\n");
return;
}
//输出视频信息
LOGI("视频的文件格式:%s",pFormatCtx->iformat->name);
LOGI("视频时长:%ld", (pFormatCtx->duration)/1000000);
LOGI("视频的宽高:%d,%d",pCodecCtx->width,pCodecCtx->height);
LOGI("解码器的名称:%s",pCodec->name);
//准备读取
//AVPacket用于存储一帧一帧的压缩数据(H264)
//缓冲区,开辟空间
AVPacket *packet = (AVPacket*)av_malloc(sizeof(AVPacket));
//AVFrame用于存储解码后的像素数据(YUV)
//内存分配
AVFrame *pFrame = av_frame_alloc();
//YUV420
AVFrame *pFrameYUV = av_frame_alloc();
//只有指定了AVFrame的像素格式、画面大小才能真正分配内存
//缓冲区分配内存
uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));
//初始化缓冲区
avpicture_fill((AVPicture *)pFrameYUV, out_buffer, AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);
//用于转码(缩放)的参数,转之前的宽高,转之后的宽高,格式等
struct SwsContext *sws_ctx = sws_getContext(pCodecCtx->width,pCodecCtx->height,pCodecCtx->pix_fmt,
pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_YUV420P,
SWS_BICUBIC, NULL, NULL, NULL);
int got_picture, ret;
FILE *fp_yuv = fopen(output_cstr, "wb+");
int frame_count = 0;
//6.一帧一帧的读取压缩数据
while (av_read_frame(pFormatCtx, packet) >= 0)
{
//只要视频压缩数据(根据流的索引位置判断)
if (packet->stream_index == v_stream_idx)
{
//7.解码一帧视频压缩数据,得到视频像素数据
ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
if (ret < 0)
{
LOGE("%s","解码错误");
return;
}
//为0说明解码完成,非0正在解码
if (got_picture)
{
//AVFrame转为像素格式YUV420,宽高
//2 6输入、输出数据
//3 7输入、输出画面一行的数据的大小 AVFrame 转换是一行一行转换的
//4 输入数据第一列要转码的位置 从0开始
//5 输入画面的高度
sws_scale(sws_ctx, pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
pFrameYUV->data, pFrameYUV->linesize);
//输出到YUV文件
//AVFrame像素帧写入文件
//data解码后的图像像素数据(音频采样数据)
//Y 亮度 UV 色度(压缩了) 人对亮度更加敏感
//U V 个数是Y的1/4
int y_size = pCodecCtx->width * pCodecCtx->height;
fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv);
fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv);
fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv);
frame_count++;
LOGI("解码第%d帧",frame_count);
}
}
//释放资源
av_free_packet(packet);
}
fclose(fp_yuv);
(*env)->ReleaseStringUTFChars(env,input_jstr,input_cstr);
(*env)->ReleaseStringUTFChars(env,output_jstr,output_cstr);
av_frame_free(&pFrame);
avcodec_close(pCodecCtx);
avformat_free_context(pFormatCtx);
}
public class MainActivity extends AppCompatActivity {
private boolean permission;
private VideoThread videoThread;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
requestPermission();
videoThread = new VideoThread();
}
/**
* 获取权限
*/
private void requestPermission() {
if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.M) {
String[] perms = {"android.permission.WRITE_EXTERNAL_STORAGE"};
if (checkSelfPermission(perms[0]) == PackageManager.PERMISSION_DENIED) {
permission = false;
requestPermissions(perms, 200);
} else {
permission = true;
}
}
}
@Override
public void onRequestPermissionsResult(int requestCode, @NonNull String[] permissions, @NonNull int[] grantResults) {
super.onRequestPermissionsResult(requestCode, permissions, grantResults);
if (requestCode == 200) {
if (grantResults[0] == PackageManager.PERMISSION_GRANTED) {
permission = true;
}
}
}
public void decode(View view) {
if (!permission) {
Toast.makeText(this, "请允许存储权限", Toast.LENGTH_SHORT).show();
requestPermission();
return;
}
if (videoThread == null) {
videoThread = new VideoThread();
}
try {
if(!videoThread.isAlive()) {
videoThread.start();
}
}catch (Exception e){
e.printStackTrace();
}
}
@Override
protected void onDestroy() {
videoThread = null;
super.onDestroy();
}
public static class VideoThread extends Thread {
@Override
public void run() {
super.run();
String input = Environment.getExternalStorageDirectory().getAbsolutePath() + "/input.mp4";
String output = Environment.getExternalStorageDirectory().getAbsolutePath() + "/out.yuv";
VideoUtils.decode(input, output);
Log.i("Activity","编码完成");
}
}
}