视频播放与截图的小demo

本人有若干成套学习视频, 可试看! 可试看! 可试看, 重要的事情说三遍 包含Java, 数据结构与算法, iOS, 安卓, python, flutter等等, 如有需要, 联系微信tsaievan.

  • 视频播放和截图要导入以下两个关键框架
#import "ViewController.h"

// -------- 1. 视频播放和截图要导入以下两个关键框架 --------
#import <AVKit/AVKit.h>
#import <AVFoundation/AVFoundation.h>
  • 视频播放涉及以下三个关键的类
@interface ViewController ()

// -------- 2. 视频播放涉及以下三个关键的类 --------
/* 视频播放的图层 */
@property (nonatomic,strong)AVPlayerLayer *playerLayer;

/* 视频播放的类,相当于工具类 */
@property (nonatomic,strong)AVPlayer *player;

/* ImageGenerator图片生成器 */
@property (nonatomic,strong)AVAssetImageGenerator *imageGenerator;


@property (weak, nonatomic) IBOutlet UIView *playView;
@property (weak, nonatomic) IBOutlet UIImageView *imageView;
@end
  • 在viewDidAppear中,将playerLayer的图层添加到需要播放的view的图层上
#pragma mark *** 视图的生命周期 ***
// -------- 1.视图已经显示,这个时候各个子控件的布局已经完成,frame值已经确定好 --------
// -------- 这个时候将视频播放的图层加载到子view上,frame值才是我们想要的 --------
// -------- 不能将这些代码写在viewDidLoad中,不然frame值不正确,不信可以试一下 --------
- (void)viewDidAppear:(BOOL)animated
{
    [super viewDidAppear:animated];
    
    NSURL *url = [[NSBundle mainBundle] URLForResource:@"app_splash_movie.mp4" withExtension:nil];
    self.player = [AVPlayer playerWithURL:url];
    
    self.playerLayer = [AVPlayerLayer playerLayerWithPlayer:self.player];
    self.playerLayer.frame = self.playView.bounds;
    [self.playView.layer addSublayer:self.playerLayer];
}
  • 根据player的rate(速率)来判断视频播放的状态(停止/播放)
- (IBAction)playOrPauseAction:(UIButton *)sender {
    // -------- 这一步是根据player的rate(速率)属性来决定的 --------
    // -------- 如果速度等于0,代表暂停,需要播放,否则停止播放 --------
    if (self.player.rate == 0) {
        [self.player play];
    }else
    {
        [self.player pause];
    }
}
  • 截图按钮触发的事件
#pragma mark *** 截图按钮触发的事件 ***
- (IBAction)cutImage:(UIBarButtonItem *)sender {
    
    NSURL *url = [[NSBundle mainBundle] URLForResource:@"app_splash_movie.mp4" withExtension:nil];
    // -------- 实例化AVAssetImageGenerator需要asset --------
    AVAsset *asset = [AVAsset assetWithURL:url];
    self.imageGenerator = [AVAssetImageGenerator assetImageGeneratorWithAsset:asset];
    self.imageGenerator.requestedTimeToleranceAfter = kCMTimeZero;
    self.imageGenerator.requestedTimeToleranceBefore = kCMTimeZero;
    // -------- 将当前播放时间转化成value --------
    // -------- 注意currentTime属性的类是CMTime --------
    CMTime time = self.player.currentTime;
    NSValue *value = [NSValue valueWithCMTime:time];
        // -------- 使用截图的方法生成图片 --------
        // -------- 这是一个异步操作,开启了新的线程 --------
    [self.imageGenerator generateCGImagesAsynchronouslyForTimes:@[ value ] completionHandler:^(CMTime requestedTime, CGImageRef  _Nullable image, CMTime actualTime, AVAssetImageGeneratorResult result, NSError * _Nullable error) {
        UIImage *newImage = [UIImage imageWithCGImage:image];
        // 所以我们在更新UI的时候就需要回到主线程
        dispatch_async(dispatch_get_main_queue(), ^{
            self.imageView.image = newImage;
        });
    }];
}
@end

PS. 本人有若干成套学习视频, 包含Java, 数据结构与算法, iOS, 安卓, python, flutter等等, 如有需要, 联系微信tsaievan.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容