AVFoundation视听技术学习

最近赶上京东618活动, 感觉终于可以买书了, 一口气买了8本,发现桌子腿再也不会不平了.

第一本AVFoundation 视听技术学习. 与时俱进的同时一定要注意基础的东西哦.
第一章的有些东西太理论, 必须有一定大学知识基础或者波形基础的人才能看的懂, 这里我也是讲的不太明白,所以需要大家去慢慢学习慢慢看了.

代码第一部分.
初识AVFoundation ->NSSpeechSynthesizer 主要功能就是 控制着文本转语音单元的播放, 综合解析器吧

为什么我把称之为综合语音播放解析器, 看里面的API 应该就会有一定的理解了吧.

@interface AVSpeechSynthesizer : NSObject
// 代理 主要是对 语音单元播放状态的 监听 
@property(nonatomic, assign, nullable) 
id delegate;

// 这里 我们能得到 播放的状态.  为什么是只读属性呢,  我觉得他是 以 音频单元 为点进行播放, 中途不可以采用 这些 . 后面的属性有进行说明
@property(nonatomic, readonly, getter=isSpeaking) BOOL speaking;
@property(nonatomic, readonly, getter=isPaused) BOOL paused;

/* AVSpeechUtterances are queued by default. 
   Enqueing the same AVSpeechUtterance that is already enqueued or is speaking will raise an exception. */
// 读取 单元语音,  默认添加  就读取
- (void)speakUtterance:(AVSpeechUtterance *)utterance;

/* These methods will operate on the speech utterance that is speaking. Returns YES if it succeeds, NO for failure. */

/* Call stopSpeakingAtBoundary: to interrupt current speech and clear the queue. */
//  对于 语音单元的操作
- (BOOL)stopSpeakingAtBoundary:(AVSpeechBoundary)boundary;
- (BOOL)pauseSpeakingAtBoundary:(AVSpeechBoundary)boundary;
- (BOOL)continueSpeaking;

@end

AVSpeechSynthesizerDelegate 代理方法

@protocol AVSpeechSynthesizerDelegate 
// 代理方法
@optional
// 开始播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didStartSpeechUtterance:(AVSpeechUtterance *)utterance;
// 完成播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didFinishSpeechUtterance:(AVSpeechUtterance *)utterance;
// 暂停播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didPauseSpeechUtterance:(AVSpeechUtterance *)utterance;
// 继续播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didContinueSpeechUtterance:(AVSpeechUtterance *)utterance;
//取消播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didCancelSpeechUtterance:(AVSpeechUtterance *)utterance;
// 这里 指的是  又来监听 播放 字符范围
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer willSpeakRangeOfSpeechString:(NSRange)characterRange utterance:(AVSpeechUtterance *)utterance;
@end

好了API 基本解读完毕, 这里看到了, 我想要进行 文本转换语音, 必须要有 综合语音解析器, 语音单元的添加. 才可以进行这一项工作.
那么什么是语音单元 AVSpeechUtterance API是这样利用的:

@interface AVSpeechUtterance : NSObject
// 类方法, 工厂构造器 , 利用 String字符串  创建音频单元
+ (instancetype)speechUtteranceWithString:(NSString *)string;
// 初始化方法
- (instancetype)initWithString:(NSString *)string;

/* If no voice is specified, the system's default will be used. */
// 设置 语音解析器 所要用的 语言, en-us  en-gb  zh-cn等等 , 英语, 美式英语, 中文. 当然我喜欢中文
@property(nonatomic, retain, nullable) AVSpeechSynthesisVoice *voice;
//  获取 语音单元的 String,  这里就能看出来 , 此类不允许单独给String
@property(nonatomic, readonly) NSString *speechString;

/* Setting these values after a speech utterance has been enqueued will have no effect. */
// 以下的设置都是 对语音的单项设置

// 语速
@property(nonatomic) float rate;             // Values are pinned between AVSpeechUtteranceMinimumSpeechRate and AVSpeechUtteranceMaximumSpeechRate.
// 语调
@property(nonatomic) float pitchMultiplier;  // [0.5 - 2] Default = 1
// 声音
@property(nonatomic) float volume;           // [0-1] Default = 1
// 前置延迟
@property(nonatomic) NSTimeInterval preUtteranceDelay;    // Default is 0.0
// 后置延迟
@property(nonatomic) NSTimeInterval postUtteranceDelay;   // Default is 0.0

@end

经过这么一个分析, 就会发现 文本转语音是如此的简单

//
//  THSpeechController.m
//  文本到语音的转换
//
//  Created by 博兴 on 16/6/22.
//  Copyright © 2016年 bx. All rights reserved.
//

#import "THSpeechController.h"
@interface THSpeechController()
// 外部提供接口, 内部重写属性的话, 是的内外用法不同
@property(nonatomic, strong) AVSpeechSynthesizer *synthesizer;

@property(strong, nonatomic) NSArray *speechStrings;
@end

@implementation THSpeechController

- (instancetype)init{
    
    if([super init]){
        // 初始化话 语音综合器
        self.synthesizer = [[AVSpeechSynthesizer alloc]init];
        self.speechStrings = @[@"我爱你",@"中国",@"中国"];
        
    }
    return self;
}
+ (instancetype)speechController
{
    return [[self alloc]init];
}
- (void)beginConversation
{
    for (NSString *str in self.speechStrings) {
        AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:str];
        utterance.voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"];
//        utterance.postUtteranceDelay = 1.0f;
        [self.synthesizer speakUtterance:utterance];
    }

}
@end

你可能感兴趣的:(AVFoundation视听技术学习)