一、直播App架构
采集端将采集到的音视频数据通过推流地址推送到服务器,播放端再通过拉流地址将音视频数据拉到本地播放。
1、主要功能:
采集端/主播(音频采集,视频采集,音频编码压缩,视频编码压缩,把音视频封装成FLV,TS文件)
服务器(数据分发CDN,内容筛选,截屏:显示主播画面,录制视频,实时转码)
播放端 (从FLV,TS中分离音视频数据,音视频解码,播放,聊天互动)
2、主要技术
采集端
1、AVFoundation框架:数据采集
2、GPUImage框架:美颜处理
3、FFmpeg框架:音频压缩
4、libremp框架:推流
5、服务器
6、SNS
7、BMS
8、nginx
播放端
1、ijkplayer框架:音视频播放
2、FFmpeg框架:视频解码
3、VideoToolbox框架:视频硬解码
4、AudioToolbox框架:音频硬解码
推流:RTMP
拉流:FLV,RTMP,HLS
二、直播App技术点
主要使用了三个协议:1、推流:LFLiveKit 2、播放:ijkplayer 3、服务器:nginx+rtmp+ffmpeg
1、推流 LFLiveKit框架
LFLiveKit:框架支持RTMP,由Adobe公司开发(https://github.com/LaiFengiOS/LFLiveKit)
1、已经集成了GPUImage美颜
2、支持后台录制
3、支持h264,AAC硬编码
4、动态改变速率
5、RTMP传输等
LFLiveKit库里已经集成GPUImage框架用于美颜功能,GPUImage基于OpenGl开发,纯OC语言框架,封装好了各种滤镜同时也可以编写自定义的滤镜,其本身内置了多达125种常见的滤镜效果。
首先LFLiveKit支持rtmp,flv两种流类型,LFLiveSession是整个库文件的入口:
1、LFLiveSession:是整个sdk核心,提供对外部的主要接口。其主要功能有:管理推流开关,管理音视频录制及渲染,管理录制渲染后的音视频编吗,管理编吗后的数据上传,管理音视频的基础配置,回调推流状态和异常上报等。
2、LFLiveAudioConfiguration:音频配置,配置相关音频信息(音频质量,码率,采样率,声道数)
3、LFLiveVideoConfiguration:视频配置,配置相关音频基本信息(视频质量,码率,帧数,分辨率)和应用配置如最大最小帧率等。
4、LFVideoCapture:视频管理类,管理视频的输入和输出。同时处理业务需求如:美颜,亮度,水印等效果。用了一个第三方:GPUIImage处理渲染效果
5、LFAudioCapture:音频管理,管理音频的输入开关。这一块儿没有多大的定制,应用的原生的API即可。
6、LFH264VideoEncoder,LFHardwareVideoEncoder:视频编码类,分别对应8.0以前和8.0以后的两种设备的视频编码类。都遵守LFVideoEncoding协议,并设置LFStreamSocketDelegate协议给session管理
7、LFHardwareAudioEncoder:音频编码类,遵守LFVideoEncoding协议,并设置LFStreamSocketDelegate协议给session管理
8、LFFrame:数据信息的基类,作为上传到服务器数据的基本模型
9、LFVideoFrame:视频信息,作为上传到服务器视频数据的模型
10、LFAudioFrame:音频信息,作为上传到服务器音频数据的模型
11、LFLiveStreamInfo:推流信息:推流地址(目前主要应用rtmp推流);流状态;音视频配置信息;异常信息
12、LFStreamRTMPSocket:数据上传管理类:开关数据上传,回调连接状态和异常。遵循LFStreamSocket协议,并设置LFStreamSocketDelegate给session管理
13、LFLiveDebug:调试信息:这个是开发时候的内部表示,主要用于记录调试作用。
14、LFStreamingBuffer:本地采样:通过本地采样监控缓冲区,可实现相关切换帧率码率等策略
除此以外,还有,LiveVideoCoreSDK框架(实现了美颜,滤镜功能,只要填写RTMP地址即可),PLCameraStreamingKit框架等,用来实现推流,这里就不一一介绍了。
2、播放 ijkplayer框架
ijkplayer:是基于FFmpeg的跨平台播放器框架,由B站开发。目前已被多个主流直播App集成使用。(https://github.com/Bilibili/ijkplayer)
2.1、服务器 nginx+rtmp+ffmpeg框架
1、打开终端, 查看是否已经安装了Homebrew, 直接终端输入命令:
man brew
如果Mac已经安装了, 会显示一些命令的帮助信息. 此时输入Q退出即可, 直接进入第二步.
反之, 如果没有安装,执行命令:
ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"
如果安装后, 想要卸载,执行命令:
ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/uninstall)"
2、安装nginx 先clone nginx项目到本地,执行命令:
brew tap homebrew/nginx
执行安装,执行命令:
brew install nginx-full --with-rtmp-module
此时, nginx和rtmp模块就安装好了 输入命令:
nginx
在浏览器里打开http://localhost:8080 如果出现下图, 则表示安装成功
安装成功 如果终端上提示
nginx: [emerg] bind() to 0.0.0.0:8080 failed (48: Address already in use)
nginx: [emerg] bind() to 0.0.0.0:8080 failed (48: Address already in use)
nginx: [emerg] bind() to 0.0.0.0:8080 failed (48: Address already in use)
nginx: [emerg] bind() to 0.0.0.0:8080 failed (48: Address already in use)
.....
则表示8080端口被占用了, 查看端口PID
lsof -i tcp:8080
根据端口PID, kill掉(这儿的9603换成你自己8080端口的PID)
kill 9603
然后重新执行nginx, 打开http://localhost:8080
3.配置nginx和ramp
首先我们查看nginx安装到哪了,执行指令:
brew info nginx-full
如图, 找到nginx.conf文件所在位置
nginx.conf
通过vim或者点击Finder->前往->前往文件夹->输入/usr/local/etc/nginx/nginx.conf->用记事本工具(推荐Sublime Text)打开nginx.conf.
直接滚到最后一行, 在最后一个}(即最后的空白处, 没有任何{})后面添加
# 在http节点后面加上rtmp配置:
rtmp {
server {
listen 1935;
application rtmplive {
live on;
record off;
}
}
然后重启nginx(其中的1.10.1要换成你自己安装的nginx版本号, 查看版本号用nginx -v命令即可)
/usr/local/Cellar/nginx-full/1.10.1/bin/nginx -s reload
昨天, 就在执行这段命令的时候, 坑出现了.(如果你命令执行成功, 重启成功了, 没有没有任何异常, 请直接跳转到下一步)
执行命令的时候, 报异常
nginx: [emerg] unknown directive “rtmp” in /usr/local/etc/nginx/nginx.conf:119
rtmp成了未知指令. brew list查看所有安装的模块, 才发现是自己手动敲命令的时候, 将nginx-full变成了nginx -full.
上解决方案:
卸载nginx,执行指令:
brew uninstall nginx
再次安装nginx,执行指令:
brew install nginx-full --with-rtmp-module
安装ffmpeg 执行命令:
brew install ffmpeg
安装ffmpeg时间就要长一点了. 如果速度过慢, 建议翻墙. 不过也才50多M的东西, 耐心一点就好. 等待的时间里, 再安装一个支持rtmp协议的视频播放器VLC
ffmpeg推流 自己准备一个视频文件, 执行推流命令:
ffmpeg -re -i /Users/sunlin/Desktop/11.mp4 -vcodec libx264 -acodec aac -strict -2 -f flv rtmp://localhost:1935/rtmplive/room
将视频推流到服务器后,打开VLC,然后File->open network->输入:
rtmp://localhost:1935/rtmplive/room