前言
因为最近做项目有遇到音视频合成的需求,但是网上的教程某些地方总是写的很模糊,所以自己调研完成之后决定写一篇博客分享出来,供大家一起学习进步
音视频主要是利用AVFoundation框架下的AVMutableComposition来合成音视频.
在AVMutableComposition中传入两个数据流,一个是音频一个是视频,之后调用合成方法就可以了
上代码
storyBoard中拖入一个button,一个imageView
这里写图片描述
为了效果好可以将IamgeView的背景色调为黑色
然后在ViewController中添加以下代码
#import"ViewController.h"#import#import"MBProgressHUD+MJ.h"@interfaceViewController()/** 用于播放 */@property(weak,nonatomic)IBOutletUIImageView*imageView;@end@implementationViewController- (void)viewDidLoad { [superviewDidLoad];}- (IBAction)mergeAction:(UIButton*)sender { [selfmerge];}// 混合音乐- (void)merge{// mbp提示框[MBProgressHUD showMessage:@"正在处理中"];// 路径NSString*documents = [NSHomeDirectory() stringByAppendingPathComponent:@"Documents"];// 声音来源NSURL*audioInputUrl = [NSURLfileURLWithPath:[[NSBundlemainBundle] pathForResource:@"五环之歌"ofType:@"mp3"]];// 视频来源NSURL*videoInputUrl = [NSURLfileURLWithPath:[[NSBundlemainBundle] pathForResource:@"myPlayer"ofType:@"mp4"]];// 最终合成输出路径NSString*outPutFilePath = [documents stringByAppendingPathComponent:@"merge.mp4"];// 添加合成路径NSURL*outputFileUrl = [NSURLfileURLWithPath:outPutFilePath];// 时间起点CMTime nextClistartTime = kCMTimeZero;// 创建可变的音视频组合AVMutableComposition*comosition = [AVMutableCompositioncomposition];// 视频采集AVURLAsset*videoAsset = [[AVURLAssetalloc] initWithURL:videoInputUrl options:nil];// 视频时间范围CMTimeRange videoTimeRange = CMTimeRangeMake(kCMTimeZero, videoAsset.duration);// 视频通道 枚举 kCMPersistentTrackID_Invalid = 0AVMutableCompositionTrack*videoTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeVideopreferredTrackID:kCMPersistentTrackID_Invalid];// 视频采集通道AVAssetTrack*videoAssetTrack = [[videoAsset tracksWithMediaType:AVMediaTypeVideo] firstObject];// 把采集轨道数据加入到可变轨道之中[videoTrack insertTimeRange:videoTimeRange ofTrack:videoAssetTrack atTime:nextClistartTime error:nil];// 声音采集AVURLAsset*audioAsset = [[AVURLAssetalloc] initWithURL:audioInputUrl options:nil];// 因为视频短这里就直接用视频长度了,如果自动化需要自己写判断CMTimeRange audioTimeRange = videoTimeRange;// 音频通道AVMutableCompositionTrack*audioTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeAudiopreferredTrackID:kCMPersistentTrackID_Invalid];// 音频采集通道AVAssetTrack*audioAssetTrack = [[audioAsset tracksWithMediaType:AVMediaTypeAudio] firstObject];// 加入合成轨道之中[audioTrack insertTimeRange:audioTimeRange ofTrack:audioAssetTrack atTime:nextClistartTime error:nil];// 创建一个输出AVAssetExportSession*assetExport = [[AVAssetExportSessionalloc] initWithAsset:comosition presetName:AVAssetExportPresetMediumQuality];// 输出类型assetExport.outputFileType=AVFileTypeQuickTimeMovie;// 输出地址assetExport.outputURL= outputFileUrl;// 优化assetExport.shouldOptimizeForNetworkUse=YES;// 合成完毕[assetExport exportAsynchronouslyWithCompletionHandler:^{// 回到主线程dispatch_async(dispatch_get_main_queue(), ^{// 调用播放方法[selfplayWithUrl:outputFileUrl]; }); }];}/** 播放方法 */- (void)playWithUrl:(NSURL*)url{// 传入地址AVPlayerItem*playerItem = [AVPlayerItemplayerItemWithURL:url];// 播放器AVPlayer*player = [AVPlayerplayerWithPlayerItem:playerItem];// 播放器layerAVPlayerLayer*playerLayer = [AVPlayerLayerplayerLayerWithPlayer:player]; playerLayer.frame=self.imageView.frame;// 视频填充模式playerLayer.videoGravity=AVLayerVideoGravityResizeAspect;// 添加到imageview的layer上[self.imageView.layeraddSublayer:playerLayer];// 隐藏提示框 开始播放[MBProgressHUD hideHUD]; [MBProgressHUD showSuccess:@"合成完成"];// 播放[player play];}
MBP是一个第三方提示类,如果不关心这个功能可以删除这三行代码和头文件
// mbp提示框[MBProgressHUD showMessage:@"正在处理中"];// 隐藏提示框 开始播放[MBProgressHUD hideHUD]; [MBProgressHUD showSuccess:@"合成完成"];
效果图
因为是gif..请自己yy出Uber视频配上五环之歌(我感觉还挺配的)
这里写图片描述
GitHub:https://github.com/Lafree317/MergeVideoAndMusic
文/轩辕小羽(简书作者)
原文链接:http://www.jianshu.com/p/9f83af9dbbef
著作权归作者所有,转载请联系作者获得授权,并标注“简书作者”。