基于ios native api自己写客户端得出的大概流程,WebRTC的API接口和例子都是oc版本,因为我最讨厌最恶心的语言就是oc,所以我使用swift来编写客户端。我本身不是搞ios开发的,以前稍微用过oc,至于swift前段时间看过一点,现学现卖,就是转换oc的过程实在是折磨死我了。
音视频客户端会话的整体流程
- WebRTC主要是客户端技术,尽量使用p2p点对点流媒体传输。
- 一开始WebRTC客户端先去连接ICE Server,也就是STUN Server或者TURN Server。
- 客户端连接STUN Server是为了测试出自己的NAT类型。
- TURN Server包含了STUN Server的功能而且包含Relay中转功能。
- 当一个WebRTC客户端创建RTCPeerConnection并且设置好ICE和本地Audio Track、Video Track以后,会自动向ICE服务器发出测试然后得到ice candidate
- 客户端把得到的candidate使用自己的信令服务器发送给另一个要通讯的客户端,对方收到candidate后加入到RTCPeerConnection中。
- <请求客户端>使用RTCPeerConnection发出offer请求,得到自己的sdp,然后通过信令服务器发给<被请求客户端>
- <被请求客户端>收到offer以后调用RTCPeerConnection.setRemoteDescription加入remote sdp,然后调用RTCPeerConnection.answerForConstraints和setLocalDescription得到自己的sdp并且后台跟ice服务器通讯异步获得自己的candidate,再将自己的sdp和candidate分别通过信令发回给<请求客户端>,<请求客户端>收到sdp后也调用RTCPeerConnection.setRemoteDescription加入remote sdp,收到candidate也加入RTCPeerConnection。
- WebRTC客户端在背后线程中自行完成流媒体传输。至于WebRTC内部代码的运行流程,以后再慢慢分析。
- 在这个流程中的信令服务器,跟业务关联较深,相当于IM服务器。我是打算采用MQTT协议来做IM,采用开源的mosquitto服务器。
- TURN服务器使用开源的coTurn自已架设。
SDP
SDP是一种会话描述格式,描述了客户端本机的媒体信息,比如支持的音视频编解码的。SDP协议是基于文本的协议,打印WebRTC中的sdp可以看出是一个很长的字符串,内部使用\r\n换行。
想知道SDP的详细知识可以参考 SDP协议介绍
如果想再研究深入一点再配合相关的RFC标准文档。