FFmpeg笔记(二)-- 命令行工具

ffprobe

主要用于查看文件的格式和详细信息。

1.查看音频文件:
ffprobe ~/Desktop/32037.mp3

可得到结果:

#时长、开始播放时间、波特率
Duration:00:05:14.83,start:0.000000,bitrate:64kb/s

#第一个流是音频流,编码格式是MP3格式,采样率是24kHz,声道是立体声,
#采样表示格式是SInt16(short)的 planner(平铺格式),这路流的比特率是64Kbit/s。
Stream#0:0 Audio:mp3,24000Hz,stereo,s16p,64kb/s
2.查看视频文件:

可以显示format_name、时间长度duration、文件 大小size、比特率bit_rate、流的数目nb_streams等:

ffprobe -show_format 32037.mp4

以JSON格式的形式输出具体每一个流最详细的信息,视频中会有视频的宽高信息、是否有b帧、视频帧的总数目、视频的编码格式、显示比例、比特率等信息,音频中会有音频的编码格式、 表示格式、声道数、时间长度、比特率、帧的总数目等信息:

ffprobe -print_format json -show_streams 32037.mp4
3.显示帧信息:
ffprobe -show_frames sample.mp4
4.查看包信息:
ffprobe -show_packets sample.mp4

ffplay

ffplay是以FFmpeg框架为基础,外加渲染音视频的库libSDL来构建的媒体文件播放器。

1.播放音频:
ffplay 32037.mp3
2.播放视频:

一些特殊格式需要指定参数播放,如yuv的播放方式见【7.】。

ffplay 32037.mp4
3.视频结束之后会从头再次播放,共循环播放10 次:
ffplay 32037.mp4 -loop 10
4.播放音频中第一路流。

一个视频中可能有多路音频、视频流。如一部电影有英文和中文的不同音频流选择。播放视频中的第一路音频流,如果参数ast后面跟的是 2,那么就播放第二路音频流,如果没有第二路音频流的话,就会静音:

ffplay 大话西游.mkv -ast 1
5.播放视频中的第一路视频流。

如果参数vst后面跟的是 2,那么就播放第二路视频流,但是如果没有第二路视频流,就会是黑屏即什么都不显示:

ffplay 大话西游.mkv -vst 1
6.播放pcm文件:

格式(-f)、声道数(-channels)、采样率(-ar)必须设置正确,如果其中任何一项参数设置不正确,都不会得到正常的播放结果。

ffplay song.pcm -f s16le -channels 2 -ar 44100
7.播放一帧视频帧、RGB:

格式(-f rawvideo代表原始格式)、表示格式(-pixel_format yuv420p)、宽高(-s 480*480),宽高要设置正常不然不能正常播放,宽高可以使用ffprobe工具查看。

ffplay -f rawvideo -pixel_format yuv420p -s 480*480 texture.yuv
或
ffplay -f rawvideo -pixel_format rgb24 -s 480*480 texture.rgb
8.音视频对齐方式:

播放器接收到的视频帧或者音频帧,内部都会有时间戳(PTS时钟)来标识它实际应该在什么时刻进行展示。实际的对齐策略如下:
比较视频当前的播放时间和音频当前的播放时间,如果视频播放过快,则通过加大延迟或者重复播放来降低视频播放速度;如果视频播放慢了,则通过减小延迟或者丢帧来追赶音频播放的时间点。关键就在于音视频时间的比较以及延迟的计算,当然在比较的过程中会设置一个阈值(Threshold),若超过预设的阈值就应该做调整(丢帧渲染 或者重复渲染),这就是整个对齐策略。

#显式地指定了ffplay使用音频为基准进行音视频同步,用来播放文件32037.mp4,当然这也是ffplay的默认设置
ffplay 32037.mp4 -sync audio

#显式地指定了使用以视频为基准进行音视频同步的方式播 放视频文件。
ffplay 32037.mp4 -sync video

#显式地指定了使用外部时钟作为基准进行音视频同步的方 式,用来播放视频文件。
ffplay 32037.mp4 -sync ext

ffmpeg

媒体文件转换工具。

1.参数:
1)通用参数

·-f fmt:指定格式(音频或者视频格式)。
·-i filename:指定输入文件名,在Linux下当然也能指定:0.0(屏 幕录制)或摄像头。
·-y:覆盖已有文件。
·-t duration:指定时长。
·-fs limit_size:设置文件大小的上限。
·-ss time_off:从指定的时间(单位为秒)开始,也支持[-]hh: mm:ss[.xxx]的格式。
·-re:代表按照帧率发送,尤其在作为推流工具的时候一定要加入 该参数,否则ffmpeg会按照最高速率向流媒体服务器不停地发送数据。
·-map:指定输出文件的流映射关系。例如:“-map 1:0-map 1: 1”要求将第二个输入文件的第一个流和第二个流写入输出文件。如果没 有-map选项,则ffmpeg采用默认的映射关系。

2)视频参数

·-b:指定比特率(bit/s),ffmpeg是自动使用VBR的,若指定了该参数则使用平均比特率。
·-bitexact:使用标准比特率。
·-vb:指定视频比特率(bits/s)。
·-r rate:帧速率(fps)。
·-s size:指定分辨率(320×240)。
·-aspect aspect:设置视频长宽比(4:3,16:9或1.3333, 1.7777)。
·-croptop size:设置顶部切除尺寸(in pixels)。
·-cropbottom size:设置底部切除尺寸(in pixels)。
·-cropleft size:设置左切除尺寸(in pixels)。
·-cropright size:设置右切除尺寸(in pixels)。
·-padtop size:设置顶部补齐尺寸(in pixels)。
·-padbottom size:底补齐(in pixels)。
·-padleft size:左补齐(in pixels)。
·-padright size:右补齐(in pixels)。
·-padcolor color:补齐带颜色(000000-FFFFFF)。
·-vn:取消视频的输出。
·-vcodec codec:强制使用codec编解码方式('copy'代表不进行重新 编码)。

3)音频参数

·-ab:设置比特率(单位为bit/s,老版的单位可能是Kbit/s),对于 MP3格式,若要听到较高品质的声音则建议设置为160Kbit/s(单声道则 设置为80Kbit/s)以上。
·-aq quality:设置音频质量(指定编码)。
·-ar rate:设置音频采样率(单位为Hz)。
·-ac channels:设置声道数,1就是单声道,2就是立体声。 ·-an:取消音频轨。
·-acodec codec:指定音频编码('copy'代表不做音频转码,直接复 制)。
·-vol volume:设置录制音量大小(默认为256)<百分比>。

2.实例
1)列出ffmpeg支持的所有格式:
ffmpeg -formats
2)剪切一段媒体文件,可以是音频或者视频文件:
#将文件input.mp4从第50s开始剪切20s的时间,输出到文件 output.mp4中,
#其中-ss指定偏移时间(time Offset),-t指定的时长 (duration)。
ffmpeg -i input.mp4 -ss 00:00:50.0 -codec copy -t 20 output.mp4
3)将视频文件切割为多个文件:
ffmpeg -i input.mp4 -t 00:00:50 -c copy small-1.mp4 -ss 00:00:50 -codec copy small-2.mp4
4)提取一个视频文件中的音频文件:
ffmpeg -i input.mp4 -vn -acodec copy output.m4a
5)使一个视频中的音频静音,即只保留视频:
ffmpeg -i input.mp4 -an -vcodec copy output.mp4
6)从MP4文件中抽取视频流导出为裸H264数据:
ffmpeg -i output.mp4 -an -vcodec copy -bsf:v h264_mp4toannexb output.h264
7)使用AAC音频数据和H264的视频生成MP4文件:
ffmpeg -i test.aac -i test.h264 -acodec copy -bsf:a aac_adtstoasc -vcodec copy -f
mp4 output.mp4
8)对音频文件的编码格式做转换:
ffmpeg -i input.wav -acodec libfdk_aac output.aac
9)从WAV音频文件中导出PCM裸数据:
ffmpeg -i input.wav -acodec pcm_s16le -f s16le output.pcm
10)重新编码视频文件,复制音频流,同时封装到MP4格式的文件 中:
ffmpeg -i input.flv -vcodec libx264 -acodec copy output.mp4
11)将一个MP4格式的视频转换成为gif格式的动图:
#按照分辨比例不动宽度改为100(使用VideoFilter的 scaleFilter),帧率改为10(-r),只处理前5秒钟(-t)的视频,生成 gif。
ffmpeg -i input.mp4 -vf scale=100:-1 -t 5 -r 10 image.gif
12)将一个视频的画面部分生成图片,比如要分析一个视频里面的每一帧都是什么内容的时候,可能就需要用到这个命令了:
#每4秒钟截取一帧视频画面生成一张图片,生成的图片从 frames_0001.png开始一直递增下去。
ffmpeg -i output.mp4 -r 0.25 frames_%04d.png
13)使用一组图片可以组成一个gif,如果你连拍了一组照片,就可 以用下面这行命令生成一个gif:
ffmpeg -i frames_%04d.png -r 5 output.gif
14)使用音量效果器,可以改变一个音频媒体文件中的音量:
#音量减小一半
ffmpeg -i input.wav -af ‘volume=0.5’ output.wav
15)淡入效果器的使用:
//将input.wav文件中的前5s做一个淡入效果,输出到output.wav中
ffmpeg -i input.wav -filter_complex afade=t=in:ss=0:d=5 output.wav
16)淡出效果器的使用:
ffmpeg -i input.wav -filter_complex afade=t=out:st=200:d=5 output.wav
17)将两路声音进行合并,比如要给一段声音加上背景音乐:
ffmpeg -i vocal.wav -i accompany.wav -filter_complex
amix=inputs=2:duration=shortest output.wav
18)对声音进行变速但不变调效果器的使用:
#将vocal.wav按照0.5倍的速度进行处理生成output.wav,
#时间长度将会变为输入的2倍。但是音高是不变的,这就是大家常说的 变速不变调。
ffmpeg -i vocal.wav -filter_complex atempo=0.5 output.wav
19)为视频增加水印效果:
#main_w代表主视频宽度, overlay_w代表水印宽度,main_h代表主视频高度,overlay_h代表水印
ffmpeg -i input.mp4 -i changba_icon.png -filter_complex
'[0:v][1:v]overlay=main_w-overlay_w-10:10:1[out]' -map '[out]' output.mp4
20)视频提亮效果器的使用:
#参数是brightness,取值范围是从-1.0到1.0,默认值是0。
ffmpeg -i input.flv -c:v libx264 -b:v 800k -c:a libfdk_aac -vf eq=brightness=0.25 -f mp4 output.mp4
21)为视频增加对比度效果:
#参数是contrast,取值范围是从-2.0到2.0,默认值是1.0。
ffmpeg -i input.flv -c:v libx264 -b:v 800k -c:a libfdk_aac -vf eq=contrast=1.5 -f mp4 output.mp4
22)视频旋转效果器的使用:
ffmpeg -i input.mp4 -vf "transpose=1" -b:v 600k output.mp4
23)视频裁剪效果器的使用:
ffmpeg -i input.mp4 -an -vf "crop=240:480:120:0" -vcodec libx264 -b:v 600k output.mp4
24)将一张RGBA格式表示的数据转换为JPEG格式的图片:
ffmpeg -f rawvideo -pix_fmt rgba -s 480*480 -i texture.rgb -f image2 -vcodec mjpeg
output.jpg
25)将一个YUV格式表示的数据转换为JPEG格式的图片:
ffmpeg -f rawvideo -pix_fmt yuv420p -s 480*480 -i texture.yuv -f image2 -vcodec mjpeg output.jpg
26)将一段视频推送到流媒体服务器上:
#rtmp://xxx代表流媒体服务器的地址,加上-re参数代 表将实际媒体文件的播放速度作为推流速度进行推送。
ffmpeg -re -i input.mp4 -acodec copy -vcodec copy -f flv rtmp://xxx
27)将流媒体服务器上的流dump到本地:
ffmpeg -i http://xxx/xxx.flv -acodec copy -vcodec copy -f flv output.flv
28)将两个音频文件以两路流的形式封装到一个文件中,比如在K 歌的应用场景中,原伴唱实时切换的场景下,可以使用一个文件包含两 路流,一路是伴奏流,另外一路是原唱流:
ffmpeg -i 131.mp3 -i 134.mp3 -map 0:a -c:a:0 libfdk_aac -b:a:0 96k -map 1:a -c:a:1 libfdk_aac -b:a:1 64k -vn -f mp4 output.m4a

你可能感兴趣的:(FFmpeg笔记(二)-- 命令行工具)