AVFoundation编程指南08-时间和媒体表示

写在前面

喜欢AVFoundation资料的同学可以关注我的专题:《AVFoundation》专辑
也可以关注我的账号

正文

基于时间的音视频数据,例如电影文件或视频流,由AVAssetAV Foundation框架中表示。它的结构决定了很多框架的工作原理。 AV Foundation用于表示时间和媒体(如样本缓冲区)的几个底层数据结构来自Core Media框架。

Assets的表示

AVAsset是AV Foundation框架中的核心类。它提供基于时间的视听数据的不依赖格式的抽象,例如电影文件或视频流。主要关系如图6-1所示。在许多情况下,你使用其子类之一:在创建新asset时使用composition子类(请参阅Editing),并使用AVURLAsset从给定URL的媒体创建新asset实例(包括来自MPMedia框架的asset)或Asset Library framework - 请参阅Using Assets)。

AVFoundation编程指南08-时间和媒体表示_第1张图片
图6-1 AVAsset提供了基于时间的音视频数据的抽象

Asset包含旨在一起呈现或处理的track集合,每个track均匀的媒体类型,包括(但不限于)音频,视频,文本,隐藏式字幕和字幕。Asset对象提供有关整个资源的信息,例如其持续时间或标题,以及演示提示,例如其自然大小。asset还可以具有metadata,由AVMetadataItem的实例表示。

轨道由AVAssetTrack的实例表示,如图6-2所示。在典型的简单情况下,一个track代表音频组件,另一个track代表视频组件;在复杂的构图中,可能存在多个重叠的音频和视频track

AVFoundation编程指南08-时间和媒体表示_第2张图片
图6-2 AVAssetTrack

track具有许多属性,例如其类型(视频或音频),视觉和/或听觉特征(视情况而定),元数据和时间线(以其父asset表示)。track还有一系列格式描述。该数组包含CMFormatDescription对象(请参阅CMFormatDescriptionRef),每个对象都描述了轨道引用的媒体样本的格式。包含统一媒体的track(例如,所有使用相同设置编码的track)将提供计数为1的数组。

track本身可以被划分为段,由AVAssetTrackSegment的实例表示。段是从源到asset跟踪时间线的时间映射。

时间的表示

AV Foundation的时间由Core Media框架中的原始结构表示。

CMTime表示时间长度

CMTime是一种C语言的数据结构,它将时间表示为有理数,具有分子(int64_t值)和分母(int32_t时间刻度)。从概念上讲,时间刻度指定分子中每个单位占秒的分数。因此,如果时间刻度为4,则每个单位代表四分之一秒;如果时间刻度为10,则每个单位代表十分之一秒,依此类推。你经常使用600的时间刻度,因为这是几种常用帧速率的倍数:电影为24 fpsNTSC30 fps(北美和日本用于电视),PAL25 fps(用于电视)欧洲)。使用600的时间刻度,你可以精确地表示这些系统中的任意数量的帧。

除了简单的时间值,CMTime结构还可以表示非数字值:+无穷大,无穷大和无限期。它还可以指示时间是否在某个时刻被舍入,并且它保持一个纪元数。

使用CMTime

你可以使用CMTimeMake或其中一个相关函数(如CMTimeMakeWithSeconds)创建时间(允许你使用浮点值创建时间并指定首选时间刻度)。基于时间的算术和比较时间有几个函数,如以下示例所示:

CMTime time1 = CMTimeMake(200, 2); // 200 half-seconds
CMTime time2 = CMTimeMake(400, 4); // 400 quarter-seconds

// time1 and time2 both represent 100 seconds, but using different timescales.
if (CMTimeCompare(time1, time2) == 0) {
    NSLog(@"time1 and time2 are the same");
}

Float64 float64Seconds = 200.0 / 3;
CMTime time3 = CMTimeMakeWithSeconds(float64Seconds , 3); // 66.66... third-seconds
time3 = CMTimeMultiply(time3, 3);
// time3 now represents 200 seconds; next subtract time1 (100 seconds).
time3 = CMTimeSubtract(time3, time1);
CMTimeShow(time3);

if (CMTIME_COMPARE_INLINE(time2, ==, time3)) {
    NSLog(@"time2 and time3 are the same");
}

有关所有可用功能的列表,请参阅CMTime Reference

CMTime的特殊值

Core Media提供特殊值的常量:kCMTimeZerokCMTimeInvalidkCMTimePositiveInfinitykCMTimeNegativeInfinityCMTime结构有很多种方式可以表示无效的时间。要测试CMTime是有效还是非数字值,你应该使用适当的宏,例如CMTIME_IS_INVALID,CMTIME_IS_POSITIVE_INFINITY或CMTIME_IS_INDEFINITE。

CMTime myTime = <#Get a CMTime#>;
if (CMTIME_IS_INVALID(myTime)) {
    // Perhaps treat this as an error; display a suitable alert to the user.
}

你不能将任意CMTime结构的值与kCMTimeInvalid进行比较。

将CMTime作为一个对象来表示

如果需要在注释或Core Foundation容器中使用CMTime结构,则可以分别使用CMTimeCopyAsDictionary和CMTimeMakeFromDictionary函数将CMTime结构转换为CFDictionary opaque类型(请参阅CFDictionaryRef)。你还可以使用CMTimeCopyDescription函数获取CMTime结构的字符串表示形式。

Epochs

CMTime结构的epoch号通常设置为0,但你可以使用它来区分不相关的时间轴。例如,可以使用呈现循环递增每个周期的时期,以区分循环0中的时间N和循环1中的时间N

CMTimeRange表示时间范围

CMTimeRange是一个C语言的数据结构,具有开始时间和持续时间,均表示为CMTime结构。时间范围不包括开始时间加上持续时间的时间。

您可以使用CMTimeRangeMake或CMTimeRangeFromTimeToTime创建时间范围。 CMTime epochsvalue会受到限制:

  • CMTimeRange结构不能跨越不同的epoch

  • 表示时间戳的CMTime结构中的timestamp可能是nonzero,但你只能对起始字段具有相同epoch的范围执行range操作(例如CMTimeRangeGetUnion)。

  • 表示持续时间的CMTime结构中的epoch应始终为0,并且该值必须为非负。

使用时间范围

Core Media提供的功能可用于确定时间范围是包含给定时间还是其他时间范围,以确定两个时间范围是否相等,以及计算时间范围的联合和交叉,例如CMTimeRangeContainsTime,CMTimeRangeEqual,CMTimeRangeContainsTimeRange和CMTimeRangeGetUnion。

鉴于时间范围不包括开始时间加上持续时间的时间,以下表达式始终计算为false

CMTimeRangeContainsTime(range, CMTimeRangeGetEnd(range))

有关所有可用功能的列表,请参阅CMTimeRange Reference

CMTimeRange的特殊值

Core Media分别为零长度范围和无效范围kCMTimeRangeZero和kCMTimeRangeInvalid提供常量。有许多方法,但CMTimeRange结构可能无效,或零或不确定(如果其中一个CMTime结构是无限的。如果你需要测试CMTimeRange结构是有效,零还是无限期,你应该使用适当的宏:CMTIMERANGE_IS_VALID,CMTIMERANGE_IS_INVALID,CMTIMERANGE_IS_EMPTY或CMTIMERANGE_IS_EMPTY。

CMTimeRange myTimeRange = <#Get a CMTimeRange#>;
if (CMTIMERANGE_IS_EMPTY(myTimeRange)) {
// The time range is zero.
}

你不应该将任意CMTimeRange结构的值与kCMTimeRangeInvalid进行比较。

将CMTimeRange结构表示为对象

如果需要在注释或Core Foundation容器中使用CMTimeRange结构,则可以分别使用CMTimeRangeCopyAsDictionary和CMTimeRangeMakeFromDictionary将CMTimeRange结构转换为CFDictionary opaque类型(请参阅CFDictionaryRef)。你还可以使用CMTimeRangeCopyDescription函数获取CMTime结构的字符串表示形式。

Media的表示

视频数据及其相关元数据在AV Foundation中由来自Core Media框架的opaque对象表示。Core Media使用CMSampleBuffer表示视频数据(请参阅CMSampleBufferRef)。 CMSampleBufferCore Foundation风格的opaque类型;实例包含视频数据帧的样本缓冲区作为核心视频像素缓冲区(请参阅CVPixelBufferRef)。你可以使用CMSampleBufferGetImageBuffer从示例缓冲区访问像素缓冲区:

CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(<#A CMSampleBuffer#>);

从像素缓冲区,您可以访问实际的视频数据。有关示例,请参阅Converting CMSampleBuffer to a UIImage Object。

除了视频数据,你还可以检索视频帧的许多其他方面:

  • 时间信息。你可以分别使用CMSampleBufferGetPresentationTimeStamp和CMSampleBufferGetDecodeTimeStamp获得原始演示时间和解码时间的准确时间戳。

  • 格式信息。格式信息封装在CMFormatDescription对象中(请参阅CMFormatDescriptionRef)。从格式描述中,你可以分别使用CMVideoFormatDescriptionGetCodecType和CMVideoFormatDescriptionGetDimensions获取像素类型和视频尺寸。

  • 元数据。元数据作为附件存储在字典中。你使用CMGetAttachment来检索字典:

    CMSampleBufferRef sampleBuffer = <#Get a sample buffer#>;
    CFDictionaryRef metadataDictionary =  CMGetAttachment(sampleBuffer, CFSTR("MetadataDictionary", NULL);
    if (metadataDictionary) {
      // Do something with the metadata.
    }
    

将CMSampleBuffer转换为UIImage对象

以下代码显示如何将CMSampleBuffer转换为UIImage对象。在使用之前,你应该仔细考虑您的要求。执行转换是相对昂贵的操作。例如,从每秒钟左右拍摄的视频数据帧创建静止图像是合适的。你不能将此作为一种手段来实时操作来自捕获设备的每一帧视频。

// Create a UIImage from sample buffer data
- (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer
{
// Get a CMSampleBuffer's Core Video image buffer for the media data
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
// Lock the base address of the pixel buffer
CVPixelBufferLockBaseAddress(imageBuffer, 0);

// Get the number of bytes per row for the pixel buffer
void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);

// Get the number of bytes per row for the pixel buffer
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
// Get the pixel buffer width and height
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);

// Create a device-dependent RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();

// Create a bitmap graphics context with the sample buffer data
CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8,
  bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
// Create a Quartz image from the pixel data in the bitmap graphics context
CGImageRef quartzImage = CGBitmapContextCreateImage(context);
// Unlock the pixel buffer
CVPixelBufferUnlockBaseAddress(imageBuffer,0);

// Free up the context and color space
CGContextRelease(context);
CGColorSpaceRelease(colorSpace);

// Create an image object from the Quartz image
UIImage *image = [UIImage imageWithCGImage:quartzImage];

// Release the Quartz image
CGImageRelease(quartzImage);

return (image);
}
上一章 目录 下一章

你可能感兴趣的:(AVFoundation编程指南08-时间和媒体表示)