iOS 基于Intel WebRTC 实现音视频通话

1.Intel WebRTC SDK的下载

官网下载地址
官方文档
下载页面
下载后我们会得到WebRTC的套件压缩包,找到iOS端的Demo解压.

解压后得到的Demo

我是下载的4.3.1版本,编译发现缺少静态库,后来发现4.3版本有这三个静态库,具体可以参考这篇文章
4.3.1版本缺少的静态库

2.WebRTC的使用

解决完编译报错后我们就可以了解WebRTC的使用了
1.1 初始化
OWTConferenceClientConfiguration* config=[[OWTConferenceClientConfiguration alloc]init];
NSArray *ice=[[NSArray alloc]initWithObjects:[[RTCIceServer alloc]initWithURLStrings:[[NSArray alloc]initWithObjects:@"stun:61.152.239.47:3478", nil]], nil];
config.rtcConfiguration=[[RTCConfiguration alloc] init];
config.rtcConfiguration.iceServers=ice;
_conferenceClient=[[OWTConferenceClient alloc]initWithConfiguration:config];
_conferenceClient.delegate=self;
1.2 加入房间,拿到后端返回的Token后加入房间会返回房间内所有流的信息
 [_conferenceClient joinWithToken:weakSelf.userInfo.webRtcToken onSuccess:^(OWTConferenceInfo* info) {
      dispatch_async(dispatch_get_main_queue(), ^{
        if([info.remoteStreams count]>0){
          NSMutableArray *arr = [NSMutableArray arrayWithArray:info.remoteStreams];
          
          //1.RTC获取流
          //移除混合流
          NSMutableArray *finalArr = [NSMutableArray arrayWithArray:arr];
          for (OWTRemoteStream* s in arr) {
            if([s isKindOfClass:[OWTRemoteMixedStream class]]){
              [finalArr removeObject:s];
            }
          }
          //拿处理好的流数组,跳转
          __weak typeof(self)weakSelf = self;
          if (finalArr.count) {
              ConferenceStreamViewController *vc = [[ConferenceStreamViewController alloc] init];
              vc.streamsArr = [NSMutableArray arrayWithArray:finalArr];
              [self.navigationController pushViewController:vc animated:YES];
              break;
            }
          } else {
          }
        } else { 
        }
      });
    } onFailure:^(NSError* err) {
    
    }];
1.3 加入房间后的一些代理
-(void)conferenceClient:(OWTConferenceClient *)client didAddStream:(OWTRemoteStream *)stream{
  NSLog(@"流增加事件AppDelegate on stream added");
}

-(void)conferenceClientDidDisconnect:(OWTConferenceClient *)client{
  NSLog(@"服务器已断开连接Server disconnected");
}

-(void)conferenceClient:(OWTConferenceClient *)client didReceiveMessage:(NSString *)message from:(NSString *)senderId{
  NSLog(@"AppDelegate 收到一条信息received message: %@, from %@", message, senderId);
}

- (void)conferenceClient:(OWTConferenceClient *)client didAddParticipant:(OWTConferenceParticipant *)user{
  user.delegate=self;
  NSLog(@"一个新用户加入==A new participant joined the meeting.");
}

-(void)streamDidEnd:(OWTRemoteStream *)stream{
  NSLog(@"流失效移除流===Stream did end");
  [[NSNotificationCenter defaultCenter] postNotificationName:@"OnStreamRemoved" object:self userInfo:[NSDictionary dictionaryWithObject:stream forKey:@"stream"]];
}

-(void)participantDidLeave:(OWTConferenceParticipant *)participant{
  NSLog(@"有人离开===Participant left conference.");
}
1.4 推流,将自己的流推到RTC服务
-(void)doPublish{
#if TARGET_IPHONE_SIMULATOR
    NSLog(@"Camera is not supported on simulator模拟器不支持推流");
    OWTStreamConstraints* constraints=[[OWTStreamConstraints alloc]init];
    constraints.audio=YES;
    constraints.video=nil;
#else
    /* Create LocalStream with constraints */
    OWTStreamConstraints* constraints=[[OWTStreamConstraints alloc] init];
    constraints.audio=YES;
    constraints.video=[[OWTVideoTrackConstraints alloc] init];
    constraints.video.frameRate=_roomSettingModel.frameRate;
    
    //352*288 640*480 960x540 1280*720 1920*1080    iPhone推流支持这些分辨率
    if (_roomSettingModel.width == 0) {
      constraints.video.resolution=CGSizeMake(352,288);
    } else {
      
      NSInteger VW = _roomSettingModel.width;
      if (VW < 640) {
        constraints.video.resolution=CGSizeMake(352,288);
      } else if (VW < 960 && VW > 352) {
        constraints.video.resolution=CGSizeMake(640,480);
      } else if (VW < 1280 && VW > 640) {
        constraints.video.resolution=CGSizeMake(960,540);
      } else if (VW < 1920 && VW > 960) {
        constraints.video.resolution=CGSizeMake(1280,720);
      } else {
        constraints.video.resolution=CGSizeMake(1920,1080);
      }
    }
    constraints.video.devicePosition=AVCaptureDevicePositionFront;
#endif
    NSError *err=[[NSError alloc]init];
    _localStream=[[OWTLocalStream alloc] initWithConstratins:constraints error:&err];
//标记推流者信息
    _localStream.attributes = @{
      //      @"PubUseInfo":@"",
    };
    
#if TARGET_IPHONE_SIMULATOR
    NSLog(@"Stream does not have video track 信息流没有视频轨道.");
#else
    dispatch_async(dispatch_get_main_queue(), ^{
      [((StreamView *)self.view).localVideoView setCaptureSession:[self->_capturer captureSession]];
    });
#endif
    OWTPublishOptions* options=[[OWTPublishOptions alloc] init];
    OWTAudioCodecParameters* opusParameters=[[OWTAudioCodecParameters alloc] init];
    opusParameters.name=OWTAudioCodecOpus;
    OWTAudioEncodingParameters *audioParameters=[[OWTAudioEncodingParameters alloc] init];
    audioParameters.codec=opusParameters;
    audioParameters.maxBitrate = _roomSettingModel.audioMaxBitrate;
    options.audio=[NSArray arrayWithObjects:audioParameters, nil];
    OWTVideoCodecParameters *h264Parameters=[[OWTVideoCodecParameters alloc] init];
    //    h264Parameters.name=OWTVideoCodecH264;
    h264Parameters.name=OWTVideoCodecVP8;
    OWTVideoEncodingParameters *videoParameters=[[OWTVideoEncodingParameters alloc]init];
    videoParameters.codec=h264Parameters;
    videoParameters.maxBitrate = _roomSettingModel.videoMaxBitrate;
    options.video=[NSArray arrayWithObjects:videoParameters, nil];
    [_conferenceClient publish:_localStream withOptions:options onSuccess:^(OWTConferencePublication* p) {
      self->_publication=p;
      self->_publication.delegate=self;
      dispatch_async(dispatch_get_main_queue(), ^{
        NSLog(@"publish success 推流成功!");
        self->isPublish = YES;
      });
      
    } onFailure:^(NSError* err) {
      NSLog(@"publish failure推流失败! %@",[err localizedFailureReason]);
      [self showMsg:[err localizedFailureReason]];
    }];
    }
  }
}

//停止推流方法
[OWTConferencePublication stop];

1.5 流订阅

RTC服务返回的流是需要订阅成功后才能播放的

- (void)subscribeWithStream:(OWTRemoteStream *)stream andAllFinsh:(BOOL)isAllFinsh{
  //自己的本地流不需要订阅
  if ([stream isKindOfClass:[OWTLocalStream class]]) {
    return;
  }
  OWTConferenceSubscribeOptions* subOption = [[OWTConferenceSubscribeOptions alloc] init];
  OWTConferenceAudioSubscriptionConstraints* audioP = [[OWTConferenceAudioSubscriptionConstraints alloc] init];
  OWTAudioCodecParameters* opusParameters1=[[OWTAudioCodecParameters alloc] init];
  opusParameters1.name=OWTAudioCodecPcma;
  OWTAudioCodecParameters* opusParameters2=[[OWTAudioCodecParameters alloc] init];
  opusParameters2.name=OWTAudioCodecPcmu;
  OWTAudioCodecParameters* opusParameters3=[[OWTAudioCodecParameters alloc] init];
  opusParameters3.name=OWTAudioCodecAc3;
  OWTAudioCodecParameters* opusParameters4=[[OWTAudioCodecParameters alloc] init];
  opusParameters4.name=OWTAudioCodecUnknown;
  OWTAudioCodecParameters* opusParameters5=[[OWTAudioCodecParameters alloc] init];
  opusParameters5.name=OWTAudioCodecG722;
  OWTAudioCodecParameters* opusParameters6=[[OWTAudioCodecParameters alloc] init];
  opusParameters6.name=OWTAudioCodecIsac;
  OWTAudioCodecParameters* opusParameters7=[[OWTAudioCodecParameters alloc] init];
  opusParameters7.name=OWTAudioCodecAac;
  OWTAudioCodecParameters* opusParameters8=[[OWTAudioCodecParameters alloc] init];
  opusParameters8.name=OWTAudioCodecAsao;
  
  //  OWTAudioEncodingParameters *audioParameters=[[OWTAudioEncodingParameters alloc] init];
  //  audioParameters.codec=opusParameters;
  
  audioP.codecs = [NSArray arrayWithObjects:opusParameters1,opusParameters2,opusParameters3,opusParameters4,opusParameters5,opusParameters6,opusParameters7,opusParameters8, nil];
  subOption.audio= audioP;
 
  //    OWTVideoCodecVP8 = 1,
  //    OWTVideoCodecVP9 = 2,
  //    OWTVideoCodecH264 = 3,
  //    OWTVideoCodecH265 = 4,
  //    OWTVideoCodecUnknown = 5,
  OWTConferenceVideoSubscriptionConstraints *videoP = [[OWTConferenceVideoSubscriptionConstraints alloc] init];
  OWTVideoCodecParameters *h264Parameters=[[OWTVideoCodecParameters alloc] init];
  h264Parameters.name=OWTVideoCodecH264;
  OWTVideoCodecParameters *vp8Parameters=[[OWTVideoCodecParameters alloc] init];
  vp8Parameters.name=OWTVideoCodecVP8;
  OWTVideoCodecParameters *vp9Parameters=[[OWTVideoCodecParameters alloc] init];
  vp9Parameters.name=OWTVideoCodecVP9;
  //    OWTVideoEncodingParameters *videoParameters=[[OWTVideoEncodingParameters alloc]init];
  //    videoParameters.codec=h264Parameters;
  videoP.codecs = [NSArray arrayWithObjects:h264Parameters,vp8Parameters,vp9Parameters, nil];
  subOption.video= videoP;
  int width = INT_MAX;
  int height = INT_MAX;
  for (NSValue* value in stream.capabilities.video.resolutions) {
    CGSize resolution=[value CGSizeValue];
    if (resolution.width == 640 && resolution.height == 480) {
      width = resolution.width;
      height = resolution.height;
      break;
    }
    if (resolution.width < width && resolution.height != 0) {
      width = resolution.width;
      height = resolution.height;
    }
  }
  [[AVAudioSession sharedInstance]
   overrideOutputAudioPort:AVAudioSessionPortOverrideSpeaker
   error:nil];
  
  [_conferenceClient subscribe:stream withOptions:subOption onSuccess:^(OWTConferenceSubscription* subscription) {
    self->_subscription=subscription;
    self->_subscription.delegate=self;
    
    [self->_subArr addObject:subscription];
    
    if (isAllFinsh) {
      
    }
    NSLog(@"Subscribe stream success订阅流成功.");
    self->_subscribedMix = NO;
  } onFailure:^(NSError* err) {
    NSLog(@"Subscribe stream failed.订阅失败 %@", [err localizedDescription]);
  }];
}
1.6 流的播放

流播放View的初始化

UIView<RTCVideoRenderer> *streamView = [[RTCEAGLVideoView alloc] init];

老的废弃的流播放方法(不要用)

/**
  @brief Attach the stream's first video track to a renderer.
  @details The render doesn't retain this stream. Using this method is not
  recommended. It will be removed in the future. please use
  [RTCVideoTrack addRenderer] instead.
 */
- (void)attach:(NSObject<RTCVideoRenderer>*)renderer;

由于老的播放方法无法将流从流播放View移除,覆盖播放会出现两个流画面交互闪烁的问题,所以一定要用新的方法

//流里面包含视频轨道和音频轨道
RTCVideoTrack *videoTrack = stream.mediaStream.videoTracks.firstObject;
//将流添加到流播放View
[videoTrack addRenderer:streamView];
//将流从流播放View移除
[videoTrack removeRenderer:streamView];
1.7 离开房间

离开房间一般需要停止推流,取消订阅流

[_conferenceClient leaveWithOnSuccess:^{
  } onFailure:^(NSError* err){
    NSLog(@"Failed to leave. %@",err);
  }];
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,634评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,951评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,427评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,770评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,835评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,799评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,768评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,544评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,979评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,271评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,427评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,121评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,756评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,375评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,579评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,410评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,315评论 2 352

推荐阅读更多精彩内容