异步渲染1

异步渲染优化篇章

一.为什么需要异步渲染,异步渲染有什么好处??

我们添加到项目或从服务端获取的图片格式基本上都为png或jpeg(它们都为图片压缩格式)

  • 当你添加一下张图片的时候或许是这样 [UIImage imageNamed:@"@3x.png"]

问题来了:压缩格式的图片的纹素是无法匹配到设备上每一个像素点的,为什么还能显示?

  • 原理1:其实是在创建了UIImage并且运行之后,下层做了解压缩的步骤,将图片解压成位图渲染到屏幕

  • 原理2:而且是在主线程,或许是苹果官方提供给开发人员的价值,有坑才有价值(才有良性循环)

当有大量图片需要加载的时候,就会造成页面的卡顿,所以我们需要将图片的解压缩动作放到子线程中异步执行,直接返回解压缩之后的图片给UIImage,告诉它图片已经可以显示了,你不用再对我解压缩(起到了优化的效果,也叫异步渲染

异步渲染

  • 1.异步渲染怎么开启 或者说放在哪个位置比较合适,渲染的图层都来自layer

步骤一:创建一个RCAsyncView

RCAsyncView *rcview = [[RCAsyncView alloc] initWithFrame:self.view.bounds];
    rcview.layer.backgroundColor = UIColor.redColor.CGColor;
    [self.view addSubview:rcview];
    
    [rcview.layer setNeedsDisplay];

// rcview.m

+(Class)layerClass{

    return [CALayer class];
}

-(void)displayLayer:(CALayer *)layer{
    
// 异步渲染 ---> 执行在这里
}

步骤二:创建一个 RCDecoder 单例 继承自NSObject(没必要写成NSObject的分类)

  1. 添加成员
@implementation RCDecoder{
    NSOperationQueue *_OperationQueue;
    NSMutableDictionary *_imageObs;
    dispatch_semaphore_t _sem;
}
  1. 声明初始化两个静态变量
// 模仿网络数据源
static NSMutableDictionary *_sourceImages;
// 全局静态 
static id newImage = nil;
  1. 创建单例
+(instancetype)sharedInstance{
    
    static RCDecoder *_rcdecoder = nil;
    
    static dispatch_once_t onceToken;
    dispatch_once(&onceToken, ^{
        _rcdecoder = [[[self class] alloc] init];
    });
    return _rcdecoder;
}
  1. RCDecoder对象初始化
-(instancetype)init{
    
    self = [super init];
    
    if (self){
        // 根据测试数据和项目线程控制--->设置线程数量
        NSUInteger count = 10;
        _OperationQueue = [[NSOperationQueue alloc] init];
        _OperationQueue.name = @"cunrrent queue for rcdecoder";
        _OperationQueue.maxConcurrentOperationCount = count;
        
        // 缓存策略自己布局设计,在这里不过多演示(也可用YYThreadSafeDictionary)
        _imageObs = [NSMutableDictionary dictionary];
        
        // 模仿数据源的初始化
        UIImage *image = [UIImage imageNamed:@"MM154"];
        _sourceImages = [NSMutableDictionary dictionary];
        _sourceImages[@"MM154"] = image;
        
        // 初始化创建信号
        _sem = dispatch_semaphore_create(0);
    }
    
    return self;
}
  1. 创建一个对外的类方法
+(void)getImageNamed:(NSString *)imgName callBackImage:(void(^)(UIImage * image))blockImg;
  1. 类方法的实现
+(void)getImageNamed:(NSString *)imgName callBackImage:(void (^)(UIImage * _Nonnull))blockImg{
    
    // 内部方法的实现
    [[RCDecoder sharedInstance] imageNamed:imgName callBackImage:blockImg];
}
  1. 内部方法的实现 (看 重点 & 细节)
-(void)imageNamed:(NSString *)imgName callBackImage:(void (^)(UIImage * _Nonnull))block{
    
    // 缓存中有图片直接冲缓存中获取
    newImage = [_imageObs objectForKey:imgName];
    
    if (newImage != nil){
        UIImage *image = [newImage copy];
        newImage = nil;
        block(image);
        
    }else{
        // ( 重点 )【完成异步渲染的实现 + 信号量处理】
        [[RCDecoder sharedInstance] prepareAsyncrenderingWithImgName:imgName];
        
        if (newImage !=nil){
            UIImage *image = [newImage copy];
            // ( 细节 )这里还应该把image数据添加进缓存
            newImage = nil;
            block(image);
        }
    }
}
  1. prepareAsyncrenderingWithImgName 实现
-(void)prepareAsyncrenderingWithImgName:(NSString *)img{

   //  (重点) 为什么不用__weak??
    __unsafe_unretained RCDecoder *wself = self;

    // 模仿数据源
    UIImage *image = [_sourceImages objectForKey:img];
    [_OperationQueue addOperationWithBlock:^{
        
        // ( 重点 )异步线程将图片数据解压缩成位图
        [RCDecoder imageByDecoded:image];
        
        // ( 重点 )图片解压缩完成之后 发送信号
        dispatch_semaphore_signal(wself->_sem);
    }];
    
    // 阻塞当前异步线程 (是不是有点类似于 socket API 接收数据时的功能模块,阻塞线程等待数据)
    dispatch_semaphore_wait(_sem, DISPATCH_TIME_FOREVER);
}
  1. imageByDecoded (这里提炼了YYKit源码在解压缩的实现)
+(void)imageByDecoded:(UIImage *)image{
    
    UIImage *oldImage = image;
    CGImageRef imgRef = oldImage.CGImage;
    if (!imgRef) return;
    CGImageRef newImageref = [RCDecoder CreateDecodedCopy:imgRef withBool:YES];
    if (!newImageref) return;
    UIImage *onlyImage = [UIImage imageWithCGImage:newImageref scale:[UIScreen mainScreen].scale orientation:UIImageOrientationUp];
    // 手动释放
    CGImageRelease(newImageref);
    newImage = onlyImage;
}
  1. CreateDecodedCopy
+(CGImageRef)CreateDecodedCopy:(CGImageRef)imageRef withBool:(BOOL)decodeForDisplay{

    if (decodeForDisplay){
        
        size_t width = CGImageGetWidth(imageRef);
        size_t height = CGImageGetHeight(imageRef);
     
        CGImageAlphaInfo alphaInfo = CGImageGetAlphaInfo(imageRef) & kCGBitmapAlphaInfoMask;

        BOOL hasAlpha = NO;

        if (alphaInfo == kCGImageAlphaPremultipliedLast ||
            alphaInfo == kCGImageAlphaPremultipliedFirst ||
            alphaInfo == kCGImageAlphaLast ||
            alphaInfo == kCGImageAlphaFirst) {
            hasAlpha = YES;
        }
        CGBitmapInfo bitmapInfo = kCGBitmapByteOrder32Host;

        bitmapInfo |= hasAlpha ? kCGImageAlphaPremultipliedFirst : kCGImageAlphaNoneSkipFirst;

        CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8, 0, [RCDecoder RCCGColorSpaceGetDeviceRGB], bitmapInfo);

        if (!context) return NULL;

        CGContextDrawImage(context, CGRectMake(0, 0, width, height), imageRef);
        CGImageRef currentImage = CGBitmapContextCreateImage(context);
        CFRelease(context);

        return currentImage;
    }
    
    return NULL;
}
  1. RCCGColorSpaceGetDeviceRGB

+(CGColorSpaceRef)RCCGColorSpaceGetDeviceRGB{

    static CGColorSpaceRef space;

    static dispatch_once_t onceToken;

    dispatch_once(&onceToken, ^{
        space = CGColorSpaceCreateDeviceRGB();
    });

    return space;
}

总结:阅读源码!!! 用现有的知识树去理解下层的实现

你可能感兴趣的:(异步渲染1)