SDWebImage源码分析---SDWebImageDecoder

图片为什么要解压?

之前根本不知道原来使用图片的时候,背后还隐藏了解压图片这一关键步骤。那么我们为什么解压图片呢?
简单来说,就是因为我们平常用的图片格式:JPG,PNG都是一种压缩的位图图形格式。而我们在将图片渲染到屏幕上时,需要使用的是解压过后的位图,才能进行后续的渲染。
推荐大神的一篇文章:
谈谈 iOS 中图片的解压缩

SDWebImageDecoder中的解压图片的方法:

- (nullable UIImage *)sd_decompressedImageWithImage:(nullable UIImage *)image;

以下分析这个方法中用到的几个方法:

是否可解压缩
+ (BOOL)shouldDecodeImage:(nullable UIImage *)image;

通过阅读这个函数方法,我们可以知道SDWebImage可解压的图片必须满足以下几个条件:

  • 图片不能含有多张子图片,比如GIF图
    // do not decode animated images
    if (image.images != nil) {
        return NO;
    }
  • 不能含有Alpha
    if (hasAlpha) {
        return NO;
    }
//判断图片是否有Alpha
BOOL SDCGImageRefContainsAlpha(CGImageRef imageRef) {
    if (!imageRef) {
        return NO;
    }
    CGImageAlphaInfo alphaInfo = CGImageGetAlphaInfo(imageRef);
    BOOL hasAlpha = !(alphaInfo == kCGImageAlphaNone ||
                      alphaInfo == kCGImageAlphaNoneSkipFirst ||
                      alphaInfo == kCGImageAlphaNoneSkipLast);
    return hasAlpha;
}
颜色空间

颜色空间用来表示如何解析代表颜色的数据,比如RGB值中填写的数值,如果没有颜色空间的话,代表颜色的数值就无法解析。

+ (CGColorSpaceRef)colorSpaceForImageRef:(CGImageRef)imageRef {
    // 当前图片的颜色空间的模式
    CGColorSpaceModel imageColorSpaceModel = CGColorSpaceGetModel(CGImageGetColorSpace(imageRef));
    // 当前图片的颜色空间
    CGColorSpaceRef colorspaceRef = CGImageGetColorSpace(imageRef);
    
    //判断是否是支持的颜色空间模型
    BOOL unsupportedColorSpace = (imageColorSpaceModel == kCGColorSpaceModelUnknown ||
                                  imageColorSpaceModel == kCGColorSpaceModelMonochrome ||
                                  imageColorSpaceModel == kCGColorSpaceModelCMYK ||
                                  imageColorSpaceModel == kCGColorSpaceModelIndexed);
    if (unsupportedColorSpace) {
        //如果是不支持的颜色空间,创建一个kCGColorSpaceModelRGB
        colorspaceRef = SDCGColorSpaceGetDeviceRGB();
    }
    return colorspaceRef;
}

接下来是解压的重点:

  • 根据将解压的图片创建新的位图上下文ContextRef
CGContextRef __nullable CGBitmapContextCreate(
     void * __nullable data,
     size_t width, 
     size_t height,
     size_t bitsPerComponent, 
     size_t bytesPerRow,
     CGColorSpaceRef cg_nullable space,
     uint32_t bitmapInfo
)

data:为图片创建内存空间,一般为NULL,系统会自动分配和释放需要的内存
width:位图的宽度CGImageGetWidth(imageRef)
height:位图的高度CGImageGetHeight(imageRef)
bitsPerComponent:一个像素中每个独立的颜色分量使用的 bit 数
bytesPerRow:每一行的字节数
space: 颜色空间
bitmapInfo:位图的布局信息

bitmapInfo主要提供了三个方面的布局信息:

  1. alpha 的信息;
  2. 颜色分量是否为浮点数;
  3. 像素格式的字节顺序。
  • 利用创建的上下文ContextRef,根据原图ImageRef,生成没有透明通道的位图。
CGContextDrawImage(context, CGRectMake(0, 0, width, height), imageRef);
CGImageRef imageRefWithoutAlpha = CGBitmapContextCreateImage(context);

图片的压缩

- (nullable UIImage *)sd_decompressedAndScaledDownImageWithImage:(nullable UIImage *)image;

结合图片解压的方法,这个方法中需要理解的是图片的压缩算法。
我自己理解的是图片切割分块压缩。

 //图片源
CGImageRef sourceImageRef = image.CGImage;
        CGSize sourceResolution = CGSizeZero;
        //获取源图的宽度
        sourceResolution.width = CGImageGetWidth(sourceImageRef);
        //获取源图的高度
        sourceResolution.height = CGImageGetHeight(sourceImageRef);
        //计算源图包含的像素总数
        float sourceTotalPixels = sourceResolution.width * sourceResolution.height;
        //计算压缩比例,目标图片的像素总数/源图的像素总数
        float imageScale = kDestTotalPixels / sourceTotalPixels;
        //根据压缩比例,计算目标图片的宽高
        CGSize destResolution = CGSizeZero;
        destResolution.width = (int)(sourceResolution.width*imageScale);
        destResolution.height = (int)(sourceResolution.height*imageScale);
        //颜色空间
        CGColorSpaceRef colorspaceRef = [[self class] colorSpaceForImageRef:sourceImageRef];
        //目标图片的图形上下文
        destContext = CGBitmapContextCreate(NULL,
                                            destResolution.width,
                                            destResolution.height,
                                            kBitsPerComponent,
                                            0,
                                            colorspaceRef,
                                            kCGBitmapByteOrderDefault|kCGImageAlphaNoneSkipLast);
        
        if (destContext == NULL) {
            return image;
        }
        //CGContextSetInterpolationQuality压缩质量
        CGContextSetInterpolationQuality(destContext, kCGInterpolationHigh);
        
        //源图的切割块Size
        CGRect sourceTile = CGRectZero;
        sourceTile.size.width = sourceResolution.width;
        sourceTile.size.height = (int)(kTileTotalPixels / sourceTile.size.width );
        //源图的切割块的起始位置
        sourceTile.origin.x = 0.0f;
        CGRect destTile;
        destTile.size.width = destResolution.width;
        destTile.size.height = sourceTile.size.height * imageScale;
        destTile.origin.x = 0.0f;
        //计算一个重叠参数
        float sourceSeemOverlap = (int)((kDestSeemOverlap/destResolution.height)*sourceResolution.height);
        CGImageRef sourceTileImageRef;

        //循环读写源图数据的次数=根据源图的高度/源块的高度
        int iterations = (int)( sourceResolution.height / sourceTile.size.height );
        //如果有余数,次数+1
        int remainder = (int)sourceResolution.height % (int)sourceTile.size.height;
        if(remainder) {
            iterations++;
        }
        
        float sourceTileHeightMinusOverlap = sourceTile.size.height;
        sourceTile.size.height += sourceSeemOverlap;
        destTile.size.height += kDestSeemOverlap;
        for( int y = 0; y < iterations; ++y ) {
            @autoreleasepool {
                //源块的纵坐标
                sourceTile.origin.y = y * sourceTileHeightMinusOverlap + sourceSeemOverlap;
                //目标块的纵坐标
                destTile.origin.y = destResolution.height - (( y + 1 ) * sourceTileHeightMinusOverlap * imageScale + kDestSeemOverlap);
                //根据计算的源图的数据和sourceTile,创建源图的一个子块
                sourceTileImageRef = CGImageCreateWithImageInRect( sourceImageRef, sourceTile );
                //如果是最后一次遍历,并且有余数,调整纵坐标,使用目标上下文,destTile,以及sourceTileImageRef,进行最后一次绘图
                if( y == iterations - 1 && remainder ) {
                    float dify = destTile.size.height;
                    destTile.size.height = CGImageGetHeight( sourceTileImageRef ) * imageScale;
                    dify -= destTile.size.height;
                    destTile.origin.y += dify;
                }
                CGContextDrawImage( destContext, destTile, sourceTileImageRef );
                CGImageRelease( sourceTileImageRef );
            }
        }
        
        CGImageRef destImageRef = CGBitmapContextCreateImage(destContext);
        CGContextRelease(destContext);
        if (destImageRef == NULL) {
            return image;
        }
        UIImage *destImage = [UIImage imageWithCGImage:destImageRef scale:image.scale orientation:image.imageOrientation];
        CGImageRelease(destImageRef);
        if (destImage == nil) {
            return image;
        }
        return destImage;
    }
        
补充:

进行图片加载渲染时我们经常使用的两个方法是:

+ (UIImage *)imageNamed:(NSString *)name;
+ (UIImage *)imageWithContentsOfFile:(NSString *)path;

那么这两个方法到底有什么区别呢?

If you have an image file that will only be displayed once and wish to ensure that it does not get added to the system’s cache, you should instead create your image using imageWithContentsOfFile:. This will keep your single-use image out of the system image cache, potentially improving the memory use characteristics of your app.

在官方文档中给出了这两个方法的使用场景,当一张图片只出现了一次,并且并不希望添加到系统缓存中时,应该采用imageWithContentsOfFile :方法,这样可以优化系统的内存使用。

你可能感兴趣的:(SDWebImage源码分析---SDWebImageDecoder)