异步渲染优化篇章
一.为什么需要异步渲染,异步渲染有什么好处??
我们添加到项目或从服务端获取的图片格式基本上都为png或jpeg(它们都为图片压缩格式)
- 当你添加一下张图片的时候或许是这样 [UIImage imageNamed:@"@3x.png"]
问题来了:压缩格式的图片的纹素是无法匹配到设备上每一个像素点的,为什么还能显示?
原理1:其实是在创建了UIImage并且运行之后,下层做了解压缩的步骤,将图片解压成位图渲染到屏幕
原理2:
而且是在主线程
,或许是苹果官方提供给开发人员的价值,有坑才有价值(才有良性循环)
当有大量图片需要加载的时候,就会造成页面的卡顿,所以我们需要将图片的解压缩动作放到子线程中
异步执行,直接返回解压缩之后的图片给UIImage,告诉它图片已经可以显示了,你不用再对我解压缩(起到了优化的效果,也叫异步渲染
)
异步渲染
- 1.异步渲染怎么开启 或者说放在哪个位置比较合适,渲染的图层都来自layer
步骤一:创建一个RCAsyncView
RCAsyncView *rcview = [[RCAsyncView alloc] initWithFrame:self.view.bounds];
rcview.layer.backgroundColor = UIColor.redColor.CGColor;
[self.view addSubview:rcview];
[rcview.layer setNeedsDisplay];
// rcview.m
+(Class)layerClass{
return [CALayer class];
}
-(void)displayLayer:(CALayer *)layer{
// 异步渲染 ---> 执行在这里
}
步骤二:创建一个 RCDecoder 单例 继承自NSObject(没必要写成NSObject的分类)
- 添加成员
@implementation RCDecoder{
NSOperationQueue *_OperationQueue;
NSMutableDictionary *_imageObs;
dispatch_semaphore_t _sem;
}
- 声明初始化两个静态变量
// 模仿网络数据源
static NSMutableDictionary *_sourceImages;
// 全局静态
static id newImage = nil;
- 创建单例
+(instancetype)sharedInstance{
static RCDecoder *_rcdecoder = nil;
static dispatch_once_t onceToken;
dispatch_once(&onceToken, ^{
_rcdecoder = [[[self class] alloc] init];
});
return _rcdecoder;
}
- RCDecoder对象初始化
-(instancetype)init{
self = [super init];
if (self){
// 根据测试数据和项目线程控制--->设置线程数量
NSUInteger count = 10;
_OperationQueue = [[NSOperationQueue alloc] init];
_OperationQueue.name = @"cunrrent queue for rcdecoder";
_OperationQueue.maxConcurrentOperationCount = count;
// 缓存策略自己布局设计,在这里不过多演示(也可用YYThreadSafeDictionary)
_imageObs = [NSMutableDictionary dictionary];
// 模仿数据源的初始化
UIImage *image = [UIImage imageNamed:@"MM154"];
_sourceImages = [NSMutableDictionary dictionary];
_sourceImages[@"MM154"] = image;
// 初始化创建信号
_sem = dispatch_semaphore_create(0);
}
return self;
}
- 创建一个对外的类方法
+(void)getImageNamed:(NSString *)imgName callBackImage:(void(^)(UIImage * image))blockImg;
- 类方法的实现
+(void)getImageNamed:(NSString *)imgName callBackImage:(void (^)(UIImage * _Nonnull))blockImg{
// 内部方法的实现
[[RCDecoder sharedInstance] imageNamed:imgName callBackImage:blockImg];
}
- 内部方法的实现 (看 重点 & 细节)
-(void)imageNamed:(NSString *)imgName callBackImage:(void (^)(UIImage * _Nonnull))block{
// 缓存中有图片直接冲缓存中获取
newImage = [_imageObs objectForKey:imgName];
if (newImage != nil){
UIImage *image = [newImage copy];
newImage = nil;
block(image);
}else{
// ( 重点 )【完成异步渲染的实现 + 信号量处理】
[[RCDecoder sharedInstance] prepareAsyncrenderingWithImgName:imgName];
if (newImage !=nil){
UIImage *image = [newImage copy];
// ( 细节 )这里还应该把image数据添加进缓存
newImage = nil;
block(image);
}
}
}
- prepareAsyncrenderingWithImgName 实现
-(void)prepareAsyncrenderingWithImgName:(NSString *)img{
// (重点) 为什么不用__weak??
__unsafe_unretained RCDecoder *wself = self;
// 模仿数据源
UIImage *image = [_sourceImages objectForKey:img];
[_OperationQueue addOperationWithBlock:^{
// ( 重点 )异步线程将图片数据解压缩成位图
[RCDecoder imageByDecoded:image];
// ( 重点 )图片解压缩完成之后 发送信号
dispatch_semaphore_signal(wself->_sem);
}];
// 阻塞当前异步线程 (是不是有点类似于 socket API 接收数据时的功能模块,阻塞线程等待数据)
dispatch_semaphore_wait(_sem, DISPATCH_TIME_FOREVER);
}
- imageByDecoded (这里提炼了YYKit源码在解压缩的实现)
+(void)imageByDecoded:(UIImage *)image{
UIImage *oldImage = image;
CGImageRef imgRef = oldImage.CGImage;
if (!imgRef) return;
CGImageRef newImageref = [RCDecoder CreateDecodedCopy:imgRef withBool:YES];
if (!newImageref) return;
UIImage *onlyImage = [UIImage imageWithCGImage:newImageref scale:[UIScreen mainScreen].scale orientation:UIImageOrientationUp];
// 手动释放
CGImageRelease(newImageref);
newImage = onlyImage;
}
- CreateDecodedCopy
+(CGImageRef)CreateDecodedCopy:(CGImageRef)imageRef withBool:(BOOL)decodeForDisplay{
if (decodeForDisplay){
size_t width = CGImageGetWidth(imageRef);
size_t height = CGImageGetHeight(imageRef);
CGImageAlphaInfo alphaInfo = CGImageGetAlphaInfo(imageRef) & kCGBitmapAlphaInfoMask;
BOOL hasAlpha = NO;
if (alphaInfo == kCGImageAlphaPremultipliedLast ||
alphaInfo == kCGImageAlphaPremultipliedFirst ||
alphaInfo == kCGImageAlphaLast ||
alphaInfo == kCGImageAlphaFirst) {
hasAlpha = YES;
}
CGBitmapInfo bitmapInfo = kCGBitmapByteOrder32Host;
bitmapInfo |= hasAlpha ? kCGImageAlphaPremultipliedFirst : kCGImageAlphaNoneSkipFirst;
CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8, 0, [RCDecoder RCCGColorSpaceGetDeviceRGB], bitmapInfo);
if (!context) return NULL;
CGContextDrawImage(context, CGRectMake(0, 0, width, height), imageRef);
CGImageRef currentImage = CGBitmapContextCreateImage(context);
CFRelease(context);
return currentImage;
}
return NULL;
}
- RCCGColorSpaceGetDeviceRGB
+(CGColorSpaceRef)RCCGColorSpaceGetDeviceRGB{
static CGColorSpaceRef space;
static dispatch_once_t onceToken;
dispatch_once(&onceToken, ^{
space = CGColorSpaceCreateDeviceRGB();
});
return space;
}
总结:阅读源码!!! 用现有的知识树去理解下层的实现