本人最近要对图片进行截图,在截图过程中遇到了一系列的问题,并把我的学习成果分享出来。
上面是一张我要进行截图的原图片,现在我要截取这张图片的1/12,例如:把“狮子”截出来。
第一步:把图片导入到项目工程中,如图:
// @1x图片的大小是480×47,@2x图片大小是960×92
第二步:创建 imageView
// 创建过程
UIImageView *imageView = [[UIImageView alloc] initWithFrame:self.view.bounds];
imageView.backgroundColor = [UIColor greenColor];
imageView.contentMode = UIViewContentModeScaleAspectFit;
imageView.image = [UIImage imageNamed:@"LuckyAstrology"];
[self.view addSubview:imageView];
self.imageView = imageView;
// 创建结果图,请忽略图片的模糊,我手机上很清晰,可能是上传时简书做了处理
第三步:截图,1/12的部分
// 大家一般的做法是这样的:
- (UIImage *)captureImage:(UIImage *)image Rect:(CGRect)rect {
CGFloat scale = [UIScreen mainScreen].scale;
CGFloat captureX = rect.origin.x * scale;
CGFloat captureY = rect.origin.y * scale;
CGFloat captureW = rect.size.width * scale;
CGFloat captureH = rect.size.height * scale;
CGImageRef imgRef = image.CGImage;
CGImageRef imageRef = CGImageCreateWithImageInRect(imgRef, CGRectMake(captureX, captureY,captureW, captureH));
UIImage *thumbScale = [UIImage imageWithCGImage:imageRef];
CGImageRelease(imageRef);
return thumbScale;
}
// 调用截图的方法
UIImage *image = self.imageView.image;
UIImage *captureImage = [self captureImage:image Rect:CGRectMake(0, 0, image.size.width/12, image.size.height)];
// 运行结果
对了,好像很完美的样子,达到了我们想要的结果。
但是,现在,我要去掉@2x的图片
再次看看截图后的效果,结果为:
咦,为什么我明明截取的是1/12,但是结果却是1/6。
罪魁祸首在于截图代码中的 CGFloat scale = [UIScreen mainScreen].scale;这是设备屏幕的分辨率。
我用的手机是 iPhone6,因此 scale=2
首先没有@2x图片后,系统读取的自然为@1x图片,前面提示过,@1x图片的宽度为480,取1/12,但是在截图方法中整个rect都放大了scale倍,所以最终的结果并非480的1/12,而是960的1/12,所以我们看到的是1/6的部分
而有了@2x图片后为什么又对了呢?大家可以先猜猜看,image.size.width等于多少呢?你可能会猜等于960,那你就错了,我打印后,image.size.width=480,这就对了,以480/12,传入截图方法中,然后在截图方法中乘以了scale,刚好就是 960的1/12,在有@2x图片的情况下,我们要的就是960/12。(注:你的手机设备会根据自身的分辨率自动读取@1x、@2x还是@3x)
因此我们可以得出一个结论,当图片的@1x、@2x、@3x图片都存在时,那么我写的那个截图方法无论在哪一台设备上都适用。
但是我现在要做的是,封装一个方法,不需要@1x、@2x、@3x图片同时存在,就能保证在任何设备上都能截出我们想要的区域。因为有时图片未必都放在Assets.xcassets文件夹里,如果放在普通文件夹或者从相册里读取的根本不存在@2x和@3x,除非手动加后缀.
此刻,我们就要摒弃[UIScreen mainScreen].scale了.
那么用什么来代替这个[UIScreen mainScreen].scale呢?
image对象有一个方法:CGImageGetWidth(),获取的是图片的宽度
我们分别打印一下在有@2x图片时的CGImageGetWidth(image.CGImage)和image.size.width
NSLog(@"%lu",CGImageGetWidth(image.CGImage));
NSLog(@"%f",image.size.width);
// 控制台打印结果
结果令人惊喜而又振奋,CGImageGetWidth(image.CGImage)获取的是图片的实际宽度,image.size.width永远获取的是@1x时的宽度,假如@1x的位置没有图片,只有@2x的位置有,且宽度为960,那么image.size.width获取的是依然是480,系统默认@1x的大小为@2x的1/2。
纠正后的通用截图方法如下:(核心)
- (UIImage *)captureImage:(UIImage *)image Rect:(CGRect)rect {
// 图片的实际宽度
CGFloat realImageW = CGImageGetWidth(image.CGImage);
// 图片的实际宽度与@1x图片的宽度之比
CGFloat scale = realImageW/image.size.width;
CGFloat captureX = rect.origin.x * scale;
CGFloat captureY = rect.origin.y * scale;
CGFloat captureW = rect.size.width * scale;
CGFloat captureH = rect.size.height * scale;
CGImageRef imgRef = image.CGImage;
CGImageRef imageRef = CGImageCreateWithImageInRect(imgRef, CGRectMake(captureX, captureY,captureW, captureH));
UIImage *thumbScale = [UIImage imageWithCGImage:imageRef];
CGImageRelease(imageRef);
return thumbScale;
}
还有一个注意点,截图方法中的 rect参数一定是相对image而言,如果你传的是相对屏幕或者相对某控件的rect,那么需要转化到image上去。
例如
UIImage *image = self.imageView.image;
// 计算图片的宽度与imageView的宽度之比
CGFloat ratio = image.size.width/self.imageView.bounds.size.width;
// 将相对imageView的rect乘以ratio后,目的是转化到image上去
UIImage *captureImage = [self captureImage:image Rect:CGRectMake(0*ratio, 0*ratio, self.imageView.bounds.size.width/12*ratio, self.imageView.bounds.size.height*ratio)];
// 最后我再多说一句,肯有有网友在网上找到了类似下面的这个截图方法:
-(UIImage *)captureImage:(UIImage *)image size:(CGSize)size{
UIGraphicsBeginImageContextWithOptions(size, NO, 0);
[image drawInRect:CGRectMake(0, 0, size.width, size.height)];
[self.imageView.layer renderInContext: UIGraphicsGetCurrentContext()];
image = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return image;
}
这种截图方式只适用于截取一个控件的全部区域,比如我想截取一张imageView的上半部分,那么你以这种截图方式,截取之后的结果将会是下面一半有留白。