最近赶上京东618活动, 感觉终于可以买书了, 一口气买了8本,发现桌子腿再也不会不平了. 😄😄
第一本AVFoundation 视听技术学习. 与时俱进的同时一定要注意基础的东西哦.
第一章的有些东西太理论, 必须有一定大学知识基础或者波形基础的人才能看的懂, 这里我也是讲的不太明白,所以需要大家去慢慢学习慢慢看了.
代码第一部分.
初识AVFoundation ->NSSpeechSynthesizer 主要功能就是 控制着文本转语音单元的播放, 综合解析器吧
为什么我把称之为综合语音播放解析器, 看里面的API 应该就会有一定的理解了吧.
@interface AVSpeechSynthesizer : NSObject
// 代理 主要是对 语音单元播放状态的 监听
@property(nonatomic, assign, nullable)
id<AVSpeechSynthesizerDelegate> delegate;
// 这里 我们能得到 播放的状态. 为什么是只读属性呢, 我觉得他是 以 音频单元 为点进行播放, 中途不可以采用 这些 . 后面的属性有进行说明
@property(nonatomic, readonly, getter=isSpeaking) BOOL speaking;
@property(nonatomic, readonly, getter=isPaused) BOOL paused;
/* AVSpeechUtterances are queued by default.
Enqueing the same AVSpeechUtterance that is already enqueued or is speaking will raise an exception. */
// 读取 单元语音, 默认添加 就读取
- (void)speakUtterance:(AVSpeechUtterance *)utterance;
/* These methods will operate on the speech utterance that is speaking. Returns YES if it succeeds, NO for failure. */
/* Call stopSpeakingAtBoundary: to interrupt current speech and clear the queue. */
// 对于 语音单元的操作
- (BOOL)stopSpeakingAtBoundary:(AVSpeechBoundary)boundary;
- (BOOL)pauseSpeakingAtBoundary:(AVSpeechBoundary)boundary;
- (BOOL)continueSpeaking;
@end
AVSpeechSynthesizerDelegate 代理方法
@protocol AVSpeechSynthesizerDelegate <NSObject>
// 代理方法
@optional
// 开始播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didStartSpeechUtterance:(AVSpeechUtterance *)utterance;
// 完成播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didFinishSpeechUtterance:(AVSpeechUtterance *)utterance;
// 暂停播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didPauseSpeechUtterance:(AVSpeechUtterance *)utterance;
// 继续播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didContinueSpeechUtterance:(AVSpeechUtterance *)utterance;
//取消播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didCancelSpeechUtterance:(AVSpeechUtterance *)utterance;
// 这里 指的是 又来监听 播放 字符范围
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer willSpeakRangeOfSpeechString:(NSRange)characterRange utterance:(AVSpeechUtterance *)utterance;
@end
好了API 基本解读完毕, 这里看到了, 我想要进行 文本转换语音
, 必须要有 综合语音解析器, 语音单元的添加. 才可以进行这一项工作.
那么什么是语音单元 AVSpeechUtterance
API是这样利用的:
@interface AVSpeechUtterance : NSObject<NSCopying, NSSecureCoding>
// 类方法, 工厂构造器 , 利用 String字符串 创建音频单元
+ (instancetype)speechUtteranceWithString:(NSString *)string;
// 初始化方法
- (instancetype)initWithString:(NSString *)string;
/* If no voice is specified, the system's default will be used. */
// 设置 语音解析器 所要用的 语言, en-us en-gb zh-cn等等 , 英语, 美式英语, 中文. 当然我喜欢中文
@property(nonatomic, retain, nullable) AVSpeechSynthesisVoice *voice;
// 获取 语音单元的 String, 这里就能看出来 , 此类不允许单独给String
@property(nonatomic, readonly) NSString *speechString;
/* Setting these values after a speech utterance has been enqueued will have no effect. */
// 以下的设置都是 对语音的单项设置
// 语速
@property(nonatomic) float rate; // Values are pinned between AVSpeechUtteranceMinimumSpeechRate and AVSpeechUtteranceMaximumSpeechRate.
// 语调
@property(nonatomic) float pitchMultiplier; // [0.5 - 2] Default = 1
// 声音
@property(nonatomic) float volume; // [0-1] Default = 1
// 前置延迟
@property(nonatomic) NSTimeInterval preUtteranceDelay; // Default is 0.0
// 后置延迟
@property(nonatomic) NSTimeInterval postUtteranceDelay; // Default is 0.0
@end
经过这么一个分析, 就会发现 文本转语音是如此的简单
//
// THSpeechController.m
// 文本到语音的转换
//
// Created by 博兴 on 16/6/22.
// Copyright © 2016年 bx. All rights reserved.
//
#import "THSpeechController.h"
@interface THSpeechController()
// 外部提供接口, 内部重写属性的话, 是的内外用法不同
@property(nonatomic, strong) AVSpeechSynthesizer *synthesizer;
@property(strong, nonatomic) NSArray *speechStrings;
@end
@implementation THSpeechController
- (instancetype)init{
if([super init]){
// 初始化话 语音综合器
self.synthesizer = [[AVSpeechSynthesizer alloc]init];
self.speechStrings = @[@"我爱你",@"中国",@"中国"];
}
return self;
}
+ (instancetype)speechController
{
return [[self alloc]init];
}
- (void)beginConversation
{
for (NSString *str in self.speechStrings) {
AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:str];
utterance.voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"];
// utterance.postUtteranceDelay = 1.0f;
[self.synthesizer speakUtterance:utterance];
}
}
@end