前言
从本文开始逐渐学习iOS自带的多媒体处理框架,例如AVFoundation,VideoToolbox,CoreMedia,CoreVideo实现多媒体的处理,并且将实现方式以及效果和ffmpeg的方式做对比
AVPlayer是AVFoundation中封装的一个用来渲染音视频的播放器,它可以播放本地的音视频文件,也可以播放远程的音视频文件,同时它对基于HLS协议的在线音视频也很好的支持,功能还是很强大的,
本文的目的:
1、熟悉AVFoundation中关于AVPlayer接口的使用,使用这些接口实现播放一个音视频文件
播放相关流程
image.png
上图介绍了AVFoundation框架中关于播放音视频文件的相关的对象关系图,可以看到使用AVPlayer播放音视频还是相对比较简单的。播放远程和本地文件流程一样,远程文件可能需要考虑网络抖动等等异常情况
相关对象及函数介绍
- 1、AVPlayer
实现播放控制的相关对象,用于管理播放的开始,结束等等操作,它使用AVPlayerItem作为输入
2、AVPlayerItem
它以AVAURLAsset作为输入来初始化对象,代表着要播放的对象,通过和AVPlayer配合,实现对本地远程及基于HLS协议的远程文件的解析3、AVPlayerLayer
用于渲染由AVPlayer提供的视频数据,AVPlayer提供了单独和同时播放音频视频的功能。备注:如果不想渲染视频,则不需要AVPlayerLayer
AVPlayer结合AVPlayerLayer实现播放音视频还是相对比较简单的,如下为实现代码
实现代码
主要实现的功能就是采集音频和1280x720的视频,视频采用h264方式编码,音频采用aac方式编码,最后保存到MOV中
/** 实现一个简单的音视频播放器,只有播放功能。
* 至于快进,快退,播放暂停,滑动播放很好实现。
*/
- (void)startPlayer:(NSURL*)vieoURL;
@end
#import "AVPlayerView.h"
#import <AVFoundation/AVFoundation.h>
static void *KVOcontenxt = &KVOcontenxt;
@interface AVPlayerView()
{
AVURLAsset *_asset;
AVPlayer *_player;
AVPlayerItem *_playerItem;
AVPlayerLayer *_playerLayer;
}
@end
@implementation AVPlayerView
// 要想使用AVPlayer播放视频,则layerClass必须返回AVPlayerLayer
+(Class)layerClass
{
return [AVPlayerLayer class];
}
- (void)startPlayer:(NSURL*)vieoURL
{
_playerLayer = (AVPlayerLayer*)self.layer;
// AVURLAsset 作为容器对象,是进行播放的前提条件
// _asset = [AVURLAsset assetWithURL:vieoURL];
NSURL *newUrl = [NSURL URLWithString:@"https://images.flypie.net/test_1280x720_3.mp4"];
_asset = [AVURLAsset assetWithURL:newUrl];
// 异步解析文件的属性到容器中,远程文件的属性解析可能耗时比较久,所以这里采用异步方式加载,此方法的block不管加载成功与失败,最后都会回调
// 如果是超时失败也会回调,只是这个超时时间暂时还不清楚
__weak typeof(self) weakSelf = self;
[_asset loadValuesAsynchronouslyForKeys:@[@"tracks"] completionHandler:^{
NSError *error = nil;
AVKeyValueStatus status = [self->_asset statusOfValueForKey:@"tracks" error:&error];
if (status != AVKeyValueStatusLoaded) {
NSLog(@"load failer %@",error);
return;
}
if (!self->_asset.playable || self->_asset.hasProtectedContent) {
NSLog(@"can not play || has protectedContent");
return;
}
[weakSelf processAsset:self->_asset];
}];
}
- (void)processAsset:(AVAsset*)asset
{
/** AVPlayerItem
* 代表了一个播放对象,它应该是AVAssetReader和AVAssetWriter的封装,它内部自动解析AVAsset的资源
* 同时向外部提供音视频数据,专门用于向AVPlayer提供音视频数据
*
* 它和AVPlayer结合能播放远程的音视频文件,同时它对HLS协议也是完美支持。而AVAssetReader是不能解封装
* 远程资源文件的
*/
_playerItem = [[AVPlayerItem alloc] initWithAsset:asset];
/** AVPlayer对象
* 可以用来播放音视频的一个对象,它以AVPlayerItem作为输入(为其提供音视频数据),
* 再其内部实现了音频的渲染,视频通过AVPlayerLayer来渲染。如果只是播放音频那么
* 就不需要AVPlayerLayer了
*/
_player = [[AVPlayer alloc] initWithPlayerItem:_playerItem];
/** AVPlayerLayer和AVPlayer结合在一起用来渲染视频用的
* 可以设置视频的宽高比例,等等属性
*/
_playerLayer.player = _player;
// AVPLayerItem和AVPlayer的属性都是KVO的,所以可以通过KVO监控播放的相关的属性
// 由于AVPlayer相关属性是异步加载的,如下这样输出资源的时长是没有值的,所以这里通过KVO来异步监
// 控这些属性的变化。其它属性类似
NSLog(@"duration %f",CMTimeGetSeconds(_player.currentItem.duration));
[self addObserver:self forKeyPath:@"_player.currentItem.duration" options:NSKeyValueObservingOptionNew context:KVOcontenxt];
// 开始播放
[_player play];
}
- (void)dealloc
{
// KVO要记得及时清除
[self removeObserver:self forKeyPath:@"_player.currentItem.duration" context:KVOcontenxt];
}
- (void)observeValueForKeyPath:(NSString *)keyPath ofObject:(id)object change:(NSDictionary<NSKeyValueChangeKey,id> *)change context:(void *)context
{
if (context != KVOcontenxt) {
[super observeValueForKeyPath:keyPath ofObject:object change:change context:context];
return;
}
if ([keyPath isEqualToString:@"_player.currentItem.duration"]) {
NSValue *newvalue = change[NSKeyValueChangeNewKey];
CMTime time = newvalue.CMTimeValue;
NSLog(@"duration %f",CMTimeGetSeconds(time));
}
}
@end
遇到问题
项目地址
https://github.com/nldzsz/ffmpeg-demo
位于AVFoundation目录下文件AVPlayerView.h/AVPlayerView.m中