视频特效制作1
很多人觉得视频这块比较复杂,其实只是假象,视频这块不是复杂,而是套路多。
举个例子,可能很多人想做个短视频录制,能暂停录制继续录制的那种,兴致勃勃的网上搜代码,结果看到
CMFormatDescriptionRef fmt= CMSampleBufferGetFormatDescription(sampleBuffer);
这么一句,直接就跪了。What the hell?
然后能抗住打击的继续往下看的人再看到这么一段。
if(CMSampleBufferDataIsReady(sampleBuffer)){if(_writer.status ==AVAssetWriterStatusUnknown) {CMTimestartTime =CMSampleBufferGetPresentationTimeStamp(sampleBuffer); [_writer startWriting]; [_writer startSessionAtSourceTime:startTime]; }if(_writer.status ==AVAssetWriterStatusFailed) {NSLog(@"writer error %@", _writer.error.localizedDescription);returnNO; }if(bVideo) {if(_videoInput.readyForMoreMediaData ==YES) { [_videoInput appendSampleBuffer:sampleBuffer];returnYES; } }else{if(_audioInput.readyForMoreMediaData) { [_audioInput appendSampleBuffer:sampleBuffer];returnYES; } }}returnNO;
Command+W.(88)
上面的代码主要意思是把CMSampleBuffer这个东西,姑且叫图像每一帧的基础数据,加入AvAssetWriter,然后AvAssetWriter以后可以把这一桢一帧的数据输出成video。其实就是代码看起来恶心一点,但是流程一点不复杂。但是今天不是讲怎么录制的,今天讲视频剪辑。(如果真的只是对短视频录制感兴趣对视频剪辑不感兴趣的给你们推荐一个库,https://github.com/rFlex/SCRecorder)
有这方面需求的可以去搬运。
今天不讲技术,主要讲套路。套路如下
Putting It All Together: Combining Multiple Assets and Saving the Result to the Camera Roll
This brief code example illustrates how you can combine two video asset tracks and an audio asset track to create a single video file. It shows how to:
1.Create an AVMutableComposition object and add multiple AVMutableCompositionTrack objects
2.Add time ranges of AVAssetTrack objects to compatible composition tracks
3.Check the preferredTransform property of a video asset track to determine the video’s orientation
4.Use AVMutableVideoCompositionLayerInstruction objects to apply transforms to the video tracks within a composition
5.Set appropriate values for the renderSize and frameDuration properties of a video composition
Use a composition in conjunction with a video composition when exporting to a video file
6.Save a video file to the Camera Roll
这是我直接从官网拔下来的,基本上就是最正确的步骤了。我来解释一下。
1.创建一个AVMutableComposition类,这个类是干嘛的呢?如图
Smaller icon
这个东西是用来添加AVMutableCompositionTrack的,你可以把它想象成用来调度每个视频次序,时间的这么一个调度器。
那么问题又来了,AVMutableCompositionTrack这个玩意干嘛用的?
这个玩意其实是用来加载视频的一个容器。
我来贴段代码
mixComposition = [[AVMutableCompositionalloc] init];// create first trackAVMutableCompositionTrack*firstTrack = [mixComposition addMutableTrackWithMediaType:AVMediaTypeVideopreferredTrackID:kCMPersistentTrackID_Invalid]; [firstTrack insertTimeRange:CMTimeRangeMake(kCMTimeZero, firstAsset.duration) ofTrack:[[firstAsset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0] atTime:kCMTimeZero error:nil];
第一句,初始化AVMutableComposition,相信这段都看得懂,第二句,创建AVMutableCompositionTrack,这句有点奇怪,其实意思就是用mixComposition创建一个AVMutableCompositionTrack,而且这个东西是存video类型的,那当然你可以把后面的参数改成addMutableTrackWithMediaType:AVMediaTypeAudio的,那就可以存音轨了。
然后呢,你想想,你要剪辑视频,你是不是得规定剪辑之后视频的时长,视频的起始时间,没问题吧。那么最后一句的insertTimeRange就是安排firstTrack的时长,那我们不缩短,就按照这个firstAsset的时长来,从kctimerzero(就是从0秒开始),到这个firstAsset.duration(就是这个视频的总时长),firstAsset是个什么东西我后面说。ofTrack这个东西就是我们的视频来源。
为什么要规定MediaType呢?因为你拍的一段视频,包括video和audio,也就是视频和音频啊,我们这段只要视频就行了,所以type是video。
atTime:这个参数是干嘛的呢?就是规定我们这段视频在合并之后放在第几秒?那我们就放在第0秒好了。
那个firstAsset是什么,我再贴段代码。
AVURLAsset *firstAsset;firstAsset = [AVAsset assetWithURL:videoURL];
videoURL,是你的相册里面你拍的video的地址,然后我们用AVURLAsset这个类取到video的信息。不懂得自行百度。
然后第二个依样画葫芦就行了。不赘述(我提供的DEMO里有,你们自行下载)。
但是还有一个重要的点,比如你要合并视频,那么第二个视频要放在第一个视频后面对吧,所以你第二个asset的atTime参数就不能设置为KCMTimeZero了,而是要firstAsset.duration了.那么你想让第一个和第二个同时播,那自然可以,两个的insertTime都是kcmtimezero就行了。
然后重头戏来了。就是这个叫做AVMutableVideoCompositionLayerInstruction的东西,它的主要作用是用来规定video的样式,比如说,你合并两个视频,第一个怎么放?转九十度放呢,还是边放边旋转呢?还是边放边改变透明度?都是由这个掌控的。
就好比我上面说的,你想让第一个视频和第二个视频同时放,那么一个肯定会压住另一个,你合并之后看到的还是一个视频,那么你其实可以改变一个视频的LayerInstruction的opacity,让她变成0.5,那么不就可以同时看见两个了么,跟双重曝光似得。
贴段代码。之前微博上有人问我怎么改透明度的问题,这里给出解答。
// 第二个视频的架构层AVMutableVideoCompositionLayerInstruction *secondlayerInstruction = [AVMutableVideoCompositionLayerInstructionvideoCompositionLayerInstructionWithAssetTrack:secondTrack]; [secondlayerInstructionsetOpacityRampFromStartOpacity:0.7toEndOpacity:0.2timeRange:CMTimeRangeMake(kCMTimeZero, firstAsset.duration)]; [secondlayerInstructionsetTransform:CGAffineTransformIdentityatTime:kCMTimeZero];
最后就是设置最终配置了。贴代码就好了,都是套路,看懂了,记住了自然就会了。
// 这个地方你把数组顺序倒一下,视频上下位置也跟着变了。mainInstruction.layerInstructions = [NSArrayarrayWithObjects:secondlayerInstruction,firstlayerInstruction,nil]; mainComposition = [AVMutableVideoCompositionvideoComposition]; mainComposition.instructions = [NSArrayarrayWithObjects:mainInstruction,nil]; mainComposition.frameDuration =CMTimeMake(1,30); mainComposition.renderSize =CGSizeMake(320,240);
然后用AVAssetExportSession导出就行了。
最后附上我的DEMO地址。有兴趣的可以学习。我的DEMO里付了一个mp4格式的视频,你们使用的时候只需要导入一个自己拍的视频合并完之后会自动导入系统相册,你们可以比较两个视频然后看看导出的结果。
https://github.com/pingguo-zangqilong/VideoDemo
如果你认为这篇文章不错,也有闲钱,那你可以用支付宝扫描下方二维码随便捐助一点,以慰劳作者的辛苦