IOS FFmpeg零到自己的播放器4,架构


本文意在设计一个最基础的本地播放器的架构,不涉及网络模块。本文提及的各个模块,将在后续的文章中一一讲解如何实现。

正文开始

从功能上分析,我们传一个本地文件给播放器,需要播放器对文件解封装、解码为音视频数据,需要音频输出模块对解码后的音频进行播放,需要视频输出模块对解码后的视频数据进行渲染。

然而简单的对音视频数据渲染是不够的,还必须保证音视频的同步来保证用户的视听体验,所以还需要一个音视频同步模块来保证音视频的同步。

另外,由于手机硬件的性能参差和用户使用场景的复杂,为了让用户有更流畅的观影体验,我们在音视频同步模块中,在本地对解码的音视频做一个缓存(也方便以后向网络点播和直播拓展),当然缓存的数据需要一个上限,避免占用内存过多,需要一个下限,低于这个下限的时候使用解码模块解码数据进行缓存。这里不可避免的涉及到多线程的使用,因为如果解码和播放在同一个线程里,需要播放一帧的时候去解码一帧,或者解码完一帧进行播放,又或者边缓冲边播放,都有可能会造成卡顿。

最后,选择模块,驱动整个架构运转。

划重点,我们需要的模块:解码模块、音视频同步模块、音频渲染模块、视频渲染模块。解码模块(或者说缓冲模块)和音视频渲染模块工作在不同的子线程上。这里用一个viewController来协调各个模块协同工作,如下面图1所示:
图1
音视频渲染模块需要数据时,向viewController索取,viewController再调用音视频同步模块,从同步模块的缓冲池里取数据给音视频渲染模块。音视频同步模块需要数据时,向viewController索取,viewController再调用解码模块向音视频同步模块的缓冲池填充数据,如图2:

图2


到这里基本完成了整个架构设计,剩下的就是让各个模块运转起来。如何运转呢,这里我们选音频渲染模块作为整个架构的驱动。我们的音频渲染模块是基于audio Unit 实现的,audio Unit跑起来以后,需要向其中不断填充音频数据,按照上面设计的数据响应链,整个架构就跑起来了。


最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。