iOS中的内存管理十分重要,有时候页面的卡顿、App的崩溃都与内存有关。
在平时的开发过程中,都会使用到大量的图片。在处理高精度高分辨率的图片时,因为图片质量过大,有时候需要进行压缩处理。
生成缩略图的五种方式:
- UIKit
- Core Graphics
- Core Image
- ImageIO
- vImage
UIKit
UIGraphicsBeginImageContextWithOptions(size, YES, 0);
[self drawInRect:CGRectMake(0, 0, size.width, size.height)];
UIImage *image = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
[UIImage drawInRect:]在绘制时,先解码图片,再生成原始分辨率大小的bitmap,这是很耗内存的。应该避免中间bitmap产生
Core Graphics
YYImage和SDWebImage都是使用这种方法。解压缩的原理就是CGBitmapContextCreate方法重新生产一张位图然后把图片绘制当这个位图上,最后拿到的图片就是解压缩之后的图片。
下面是一部分代码
CGBitmapInfo bitmapInfo = CGImageGetBitmapInfo(imageRef); CGContextRef context = CGBitmapContextCreate(nil,
size.width,
size.height,
bytePerComponent,
bytePerRow,
colorSpace,
bitmapInfo);
//设置插值质量
CGContextSetInterpolationQuality(context, kCGInterpolationHigh);
//绘图
CGContextDrawImage(context, CGRectMake(0, 0, size.width, size.height), imageRef);
//生成imageRef
CGImageRef bitmapImageRef = CGBitmapContextCreateImage(context);
UIImage *image = [UIImage imageWithCGImage:bitmapImageRef scale:self.scale orientation:self.imageOrientation];
Core Image
CIImage *ciImageInput = [CIImage imageWithCGImage:imageRef];
CIFilter *filter = [CIFilter filterWithName:@"CILanczosScaleTransform"];
[filter setValue:ciImageInput forKey:kCIInputImageKey];
[filter setValue:[NSNumber numberWithDouble:scale] forKey:kCIInputScaleKey];
[filter setValue:@(1.0) forKey:kCIInputAspectRatioKey];
CIImage *ciImageOutput = [filter valueForKey:kCIOutputImageKey];
if (!ciImageOutput) {
return nil;
}
CIContext *ciContext = [[CIContext alloc] initWithOptions:@{kCIContextUseSoftwareRenderer : @(NO)}];
CGImageRef ciImageRef = [ciContext createCGImage:ciImageOutput fromRect:CGRectMake(0, 0, size.width, size.height)];
CoreImage是五种方式里面,性能最差的,一般不用。
ImageIO
ImageIO是一个独立的图像处理框架,使用时需要先#import<ImageIO/ImageIO.h>。
ImageIO的功能非常强大,但是也更加底层,代码一般使用CF类来编写,可以单独去学习这一框架,这里只用来处理缩略图
//获取原图片属性
CFDictionaryRef property = CGImageSourceCopyPropertiesAtIndex(imageSource, 0, nil);
NSDictionary *propertys = CFBridgingRelease(property);
CGFloat height = [propertys[@"PixelHeight"] integerValue]; //图像k宽高,12000
CGFloat width = [propertys[@"PixelWidth"] integerValue];
//以较大的边为基准
int imageSize = (int)MAX(size.width, size.height);
CFStringRef keys[5];
CFTypeRef values[5];
//创建缩略图等比缩放大小,会根据长宽值比较大的作为imageSize进行缩放
//kCGImageSourceThumbnailMaxPixelSize为生成缩略图的大小。当设置为800,如果图片本身大于800*600,则生成后图片大小为800*600,如果源图片为700*500,则生成图片为800*500
keys[0] = kCGImageSourceThumbnailMaxPixelSize;
CFNumberRef thumbnailSize = CFNumberCreate(NULL, kCFNumberIntType, &imageSize);
values[0] = (CFTypeRef)thumbnailSize;
keys[1] = kCGImageSourceCreateThumbnailFromImageAlways;
values[1] = (CFTypeRef)kCFBooleanTrue;
keys[2] = kCGImageSourceCreateThumbnailWithTransform;
values[2] = (CFTypeRef)kCFBooleanTrue;
keys[3] = kCGImageSourceCreateThumbnailFromImageIfAbsent;
values[3] = (CFTypeRef)kCFBooleanTrue;
keys[4] = kCGImageSourceShouldCacheImmediately;
values[4] = (CFTypeRef)kCFBooleanTrue;
CFDictionaryRef options = CFDictionaryCreate(kCFAllocatorDefault, (const void **)keys, (const void **)values, 4, &kCFTypeDictionaryKeyCallBacks, &kCFTypeDictionaryValueCallBacks);
CGImageRef thumbnailImage = CGImageSourceCreateThumbnailAtIndex(imageSource, 0, options);
UIImage *resultImg = [UIImage imageWithCGImage:thumbnailImage];
vImage
vImage也是Accelerate库的一部分,使用时需要先#import <Accelerate/Accelerate.h>,侧重于高性能的图像Bitmap级别的处理。库本身全部是C的接口,而且不同于Core系列的(Core Graphics/Core Foundation)C接口,是比较贴近传统C语言的接口,不会有Ref这种贴心的定义,而且很多接口需要自己手动分配内存。
//定义ARGB8888的结构体格式
vImage_CGImageFormat format;
format.bitsPerComponent = 8;
format.bitsPerPixel = 32; //ARGB四通道 4*8
format.colorSpace = nil; //默认sRGB
format.bitmapInfo = kCGImageAlphaFirst | kCGBitmapByteOrderDefault; // 表示ARGB
format.version = 0;
format.decode = nil; //默认色彩映射范围【0, 1.0】
format.renderingIntent = kCGRenderingIntentDefault;//超出【0,1】范围后怎么处理
//源图片buffer,输出图片buffer
vImage_Buffer sourceBuffer, outputBuffer;
vImage_Error error = vImageBuffer_InitWithCGImage(&sourceBuffer, &format, nil, imageRef, kvImageNoFlags);
if (error != kvImageNoError) {
return nil;
}
float scale = self.scale;
int width = (int)size.width;
int height = (int)size.height;
int bytesPerPixel = (int)CGImageGetBitsPerPixel(imageRef)/8;
//设置输出格式
outputBuffer.width = width;
outputBuffer.height = height;
outputBuffer.rowBytes = bytesPerPixel * width;
outputBuffer.data = malloc(outputBuffer.rowBytes * outputBuffer.height);
//缩放到当前尺寸上
error = vImageScale_ARGB8888(&sourceBuffer, &outputBuffer, nil, kvImageHighQualityResampling);
if (error != kvImageNoError) {
return nil;
}
CGImageRef outputImageRef = vImageCreateCGImageFromBuffer(&outputBuffer, &format, nil, nil, kvImageNoFlags, &error);
vImage给我的感觉与VideoToolBox的解码方式比较类似,不过这里使用起来太过麻烦了。
以上就是iOS中对图片进行缩略的五种解码方式。
内容主要是在学习了https://www.jianshu.com/p/de7b6aede888以后整理的,文中有关于5种方式的性能分析。
在写完本章的demo以后,代码中主要对Core Graphics和ImageIO的方式进行了加载时间和内存的测试。
这里是demo