CMTime定义
通常开发者认为时间的呈现格式应该是浮点数据,我们一般使用NSTimeInterval,实际上它是简单的双精度double类型,可以表示不同场景中的时间。实际上,AV Foundation在AVAudioPlayer和AVAudioRecorder中处理时间问题时本身也会使用这个类型。虽然很多通用的开发环境使用双精度类型无法应用于更多的高级时基媒体的开发中。比如,一个单一舍入错误就会导致丢帧或音频丢失。于是苹果在Core Media框架中定义了CMTime数据类型作为时间的格式,类型定义如下:
typedef struct
CMTimeValue value;
CMTimeScale timescale;
CMTimeFlags flags;
CMTimeEpoch epoch;
} CMTime;
上面结构中最相关的三个组件是value、timescale和flags。CMTimeValue和CMTimeScale分别是64位和32位有符号整型变量,是CMTime元素的分数形式。CMTimeFlags是一个位掩码用以表示时间的指定状态,比如判断数据是否有效、不确定或是否出现舍入值等。CMTime实例可标记特定的时间点或用于表示持续时间。
CMTime创建
有多种方法可以创建CMTime实例,不过最常见的方法是使用CMTimeMake函数,指定一个64位的value参数和32位的timescale参数,比如,创建一个代表5s的CMTime表达式有下面几种不同的方式:
CMTime t1 =CMTimeMake(5, 1);
CMTime t2 =CMTimeMake(3000, 600);
CMTime t3 =CMTimeMake(5000, 1000);
使用CMTimeShow函数将这些值打印到控制台会出现如下结果:
{5/1 = 5.000}
{3000/600 = 5.000}
{5000/1000 = 5.000}
注:在处理视频内容时常见的时间刻度为600,这是大部分常用视频帧率24FPS、25FPS、30FPS的公倍数。音频数据常见的时间刻度就是采样率,比如44 100(44.1kHZ)或48 000(kHZ)。
CMTime计算
相加
CMTime t4 =CMTimeAdd(t1, t2);
相减
CMTime t5 =CMTimeSubtract(t3, t1);
注:相乘是CMTimeMultiply 大家可自己参阅CMTime文档。
CMTimeMakeWithSeconds 与 CMTimeMake的区别
这两个的区别是 :CMTimeMake(a,b) a当前第几帧, b每秒钟多少帧,当前播放时间a/b。 CMTimeMakeWithSeconds(a,b) a当前时间,b每秒钟多少帧。下面用代码来说明它:
Float64 seconds = 3;
int32_t preferredTimeScale = 600; //处理视频内容事常见的时间刻度为600,这是大部分视频帧率24fps、25fps、30fps的公倍数。音频数据常见的时间刻度就是采样率,譬如44 100(44.1kHZ)或48 000(48kHZ)。
CMTime inTime = CMTimeMakeWithSeconds(seconds, preferredTimeScale);
CMTimeShow(inTime);
输出: {1800/600 = 3.000}
代表当前时间为3s,视频一共有1800帧,一秒钟600帧
CMTimeMake
int64_t value = 1100;
int32_t preferredTimeScale = 600;
CMTime inTime = CMTimeMake(value, preferredTimeScale);
CMTimeShow(inTime);
OUTPUT: {1100/600 = 1.833}
代表时间为1.833s, 视频一共1100帧,每秒600帧 。 其实,在我们这里,我们关心的只有最后那个总时间。 换句话说,我们把那个(0, 600)换成(x, 600) 是没问题的。
requestedTimeTolerance
那么为什么,效果差了这么多呢?我们可以把CGImageRef image = [gen copyCGImageAtTime:time
actualTime:&actualTime
error:&error];
返回的 actualTime实际时间输出一下
CMTimeShow(actualTime)
就会发现时间差的很远。 这是为什么呢? 首先 actualTime 使用的 fps * 1000 当每秒的帧率, 顺便普及下fps的获取方法 :float fps = [[[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0] nominalFrameRate];
然后我们来思考为什么要有 requestTime 和 actualTime 呢? 开始对这个api 很困惑: 为什么我request的时间 不等于actualTime?后来查了一下文档,当你想要一个时间点的某一帧的时候,它会在一个范围内找,如果有缓存,或者有在索引内的关键帧,就直接返回,从而优化性能。
这个定义范围的API就是 requestedTimeToleranceAfter 和 requestedTimeToleranceBefore
如果我们要精确时间,那么可以设置:
gen.requestedTimeToleranceAfter = kCMTimeZero;
gen.requestedTimeToleranceBefore = kCMTimeZero;
注:在使用AVAssetImageGenerator获取视频缩略图的时候,发现设置gen.requestedTimeToleranceAfter = kCMTimeZero;
和gen.requestedTimeToleranceAfter = kCMTimeZero;
会有几率失败,去掉这两个设置就好了。
CMTimeRange
Core Media框架还为时间范围提供了一个数据类型,称为CMTimeRange,它在有关资源编辑的API中扮演着重要的角色,定义如下:
typedef struct
{
CMTime start;
CMTime duration;
} CMTimeRange;
其中start表示时间的起点的CMTime值,duratin表示时间范围的持续时长的CMTime值。一般使用CMTimeRangeMake和CMTimeRangeFromTimeToTime创建如下:
CMTimeRange timeRange1 = CMTimeRangeMake(t1, t2);
CMTimeRange timeRange2 = CMTimeRangeFromTimeToTime(t4, t3);
CMTimeRange的交集和并集
//0-5s
CMTimeRange range1 =CMTimeRangeMake(kCMTimeZero, CMTimeMake(5,1));
//2-5s
CMTimeRange range2 =CMTimeRangeMake(CMTimeMake(2, 1), CMTimeMake(5,1));
//交叉时间范围 2-5s
CMTimeRange intersectionRange =CMTimeRangeGetIntersection(range1, range2);
CMTimeRangeShow(intersectionRange);
//总和时间范围 7s
CMTimeRange unionRange =CMTimeRangeGetUnion(range1, range2);
CMTimeRangeShow(unionRange);
打印结果如下:
{{2/1 = 2.000}, {3/1 = 3.000}}
{{0/1 = 0.000}, {7/1 = 7.000}}