音频 (一) : 音频基础知识

音频基础知识

组成
音频文件的组成:文件格式(或者音频容器) + 数据格式(或者音频编码)。

文件格式(或音频容器)是用于形容文件本身的格式。

我们可以通过多种不同的方法为真正的音频数据编码。例如CAF文件便是一种文件格式,它能够包含MP3格式,线性PCM以及其它数据格式的音频。

数据格式(或音频编码)

我们将从音频编码开始阐述(而不是文件格式),因为编码是最重要的环节。

线性PCM:

这是表示线性脉冲编码调制,主要是描写用于将模拟声音数据转换成数字格式的技术。简单地说也就是未压缩的数据。因为数据是未压缩的,所以我们便可以最快速地播放出音频,而如果空间不是问题的话这便是iPhone音频的优先代码选择。

音频文件计算大小

声卡对声音的处理质量可以用三个基本参数来衡量,即采样频率、采样位数和声道数。

采样频率:

是指单位时间内的采样次数。采样频率越大,采样点之间的间隔就越小,数字化后得到的声音就越逼真,但相应的数据量就越大。声卡一般提供11.025kHz、22.05kHz和44.1kHz等不同的采样频率。

采样位数:
是记录每次采样值数值大小的位数。采样位数通常有8bits或16bits两种,采样位数越大,所能记录声音的变化度就越细腻,相应的数据量就越大。

声道数
是指处理的声音是单声道还是立体声。单声道在声音处理过程中只有单数据流,而立体声则需要左、右声道的两个数据流。显然,立体声的效果要好,但相应的数据量要比单声道的数据量加倍。

声音数据量的计算公式为:
数据量(字节/秒)= (采样频率(Hz)× 采样位数(bit)× 声道数)/ 8
单声道的声道数为1,立体声的声道数为2。

【例1】请计算对于5分钟双声道、16位采样位数、44.1kHz采样频率声音的不压缩数据量是多少?

根据公式:数据量=(采样频率×采样位数×声道数×时间)/8

得,数据量(MB)=[44.1×1000×16×2×(5×60)] /(8×1024×1024)=50.47MB

计算时要注意几个单位的换算细节:

时间单位换算:1分=60秒

采样频率单位换算:1kHz=1000Hz

数据量单位换算:1MB=1024×1024=1048576B

【例2】请计算对于双声道立体声、采样频率为44.1kHz、采样位数为16位的激光唱盘(CD-A),用一个650MB的CD-ROM可存放多长时间的音乐?

已知音频文件大小的计算公式如下:

文件的字节数/每秒=采样频率(Hz)X采样位数(位)X声道数/8

根据上面的公式计算一秒钟时间内的不压缩数据量:(44.1×1000×16×2)/8=0.168MB/s

那么,一个650MB的CD-ROM可存放的时间为:(650/0.168)/(60×60)=1.07小时。

学习之前必须了解一些音频框架之类的东西,比如文件格式与数据格式(编码格式),比特率,采样率,轨道,声道,FFT(傅里叶快速变化),频谱等。查了网上很多资料,到现在还是一知半解啊。。。擦擦擦。。。。接着要整体了解下ios为我们提供处理音频的基础技术:核心音频(core Audio)

有5个框架:

1.Core Audio.framework

2.AudioToolbox.framework

3.AudioUnit.framework

4.AVFoundation.framework

5.OpenAL.framework

由于核心音频本身是一个很大的话题,涉及到很多领域的不同服务。因此,我们又将核心音频分割成较小的模块,方便我们去理解API以及框架

1.AudioToolbox.framework:

(1)音频队列服务(Audio
Queue service)(2)音频会话服务(Audio session service)

(3)音频文件服务
(4)音频文件流式服务
(5)音频转化服务

(6)系统声音服务 (7)扩展的音频文件服务

2.AudioUnit.framework:音频单元服务

3.OpenAL.framework:
OpenAL

4.AVFoundation.framework:
(1)AVAudioPlayer(2)AVAudioRecorder(3)AVAudioSession

5.CoreAudio:这个框架并不提供服务,仅提供其他框架可以使用的头文件和数据类型

一、音频播放

1.AVAudioPlayer

(1)在AVFoundation.framework框架中

(2)属性

(3)方法

(4)如何使用

2.音频服务(System
Sound Services)

3.音频队列(Audio
Queue Services)

4.OpenAL

5.MPMusciPlayController

6.音频单元服务

7.系统声音播放等

二、音频录制

1.AVAuidoRecorder

2.Audio
Queue Services等

三、音频剪切(截取)

NSString*path = [[NSBundle mainBundle] pathForResource:@"陈奕迅 - 想哭" ofType:@"mp3"];

NSURL *songURL =[NSURL fileURLWithPath:path];

AVURLAsset *songAsset = [AVURLAsset URLAssetWithURL:songURL options:nil];

2.创建音频文件

NSArray *dirs = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask,YES);

NSString *documentsDirectoryPath = [dirs objectAtIndex:0];

NSString *exportPath = [[documentsDirectoryPath
stringByAppendingPathComponent:EXPORT_NAME] retain];EXPORT_NAME为导出音频文件名

if ([[NSFileManager defaultManager] fileExistsAtPath:exportPath]) {

[[NSFileManager defaultManager] removeItemAtPath:exportPath error:nil];

}

NSURL *exportURL = [NSURL fileURLWithPath:exportPath];

AVAssetWriter *assetWriter = [[AVAssetWriter assetWriterWithURL:exportURL
      
      fileType:AVFileTypeCoreAudioFormat
                     
        error:&assetError]
                     
  retain];

if (assetError) {

    NSLog (@"error: %@", assetError);

    return;

}

3.创建音频输出会话

AVAssetExportSession *exportSession = [AVAssetExportSession exportSessionWithAsset:songAsset                                                           presetName:AVAssetExportPresetAppleM4A];

4.设置音频截取时间区域 (CMTime在Core Medio框架中,所以要事先导入框架)

CMTime startTime = CMTimeMake([_startTime.text floatValue], 1);
CMTime stopTime = CMTimeMake([_endTime.text floatValue], 1);
CMTimeRange exportTimeRange = CMTimeRangeFromTimeToTime(startTime, stopTime);

5.设置音频输出会话并执行

exportSession.outputURL = [NSURL fileURLWithPath:filePath]; // output path

exportSession.outputFileType = AVFileTypeAppleM4A; // output file type

exportSession.timeRange = exportTimeRange; // trim time range

[exportSession exportAsynchronouslyWithCompletionHandler:^{

   if (AVAssetExportSessionStatusCompleted == exportSession.status) {

        NSLog(@"AVAssetExportSessionStatusCompleted");

    }else if (AVAssetExportSessionStatusFailed == exportSession.status) {

         a failure may happen because of an event out
of your control

         for example, an interruption like a phone call
comming in

         make sure and handle this case appropriately

        NSLog(@"AVAssetExportSessionStatusFailed");

    }else {

  NSLog(@"Export Session Status: %d",exportSession.status);

    }

}];

总得来说:我们再APP的目录下创建了音频文件,然后创建了一个音频的AVAsset对象(AVAsset代表一个抽象的媒体,包含标题,文件大小等等),接着创建一个AVAsset的输出会话AVAssetExportSession,最后就是设置我们要剪切(截取)的时间区域CMTimeRange,然后执行AVAssetExportSeesion的回调函数exportAsynchronouslyWithCompletionHandler。

你可能感兴趣的:(音频 (一) : 音频基础知识)