CoreImage的使用与注意事项

综述

CoreImage是什么?

Core Image 是 iOS 5 加入到 iOS 平台的一个图像处理框架,它基于OpenGL顶层创建,底层则用着色器来处理图像,这意味着它利用了GPU基于硬件加速来处理图像,提供了强大高效的图像处理功能, 内置了很多功能强大的滤镜(Filter) , 这些Filter 提供了各种各样的效果, 并且还可以通过 "滤镜链" 将各种效果的 Filter叠加起来,来形成强大的自定义效果。
现阶段CoreImage引入 CIDetector,提供一些常用的图片识别功能:人脸识别、条形码识别、文本识别等,并且与越来越多的框架结合:OpenGL ES . Metal . SceneKit . SpriteKit等。

如何使用CoreImage滤镜

我们先来看一下效果图

CoreImage的使用与注意事项_第1张图片
滤镜效果图.jpg

下面是实现该效果的代码

//后台线程渲染,防止阻塞主线程
    dispatch_async(
                   dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_BACKGROUND, 0),
                   ^(void){
                       //获取图片资源,imageview.image是原图
                       CIImage *Ciimage = [[CIImage alloc]initWithImage:imageview.image];
                       //根据滤镜名称创建滤镜
                       CIFilter *fiter = [CIFilter filterWithName:@"CIPhotoEffectMono" keysAndValues:kCIInputImageKey,Ciimage, nil];
                       //这里使用的是默认参数,也可自己设置
                       [fiter setDefaults];
                       
                       //创建绘制上下文,默认使用GPU绘制
                       //创建基于 GPU 的 CIContext 对象
                        CIContext *context = [CIContext contextWithOptions:nil];
                       
                       //或者使用这种方法创建基于 GPU 的 CIContext 对象
//                       EAGLContext *gpucontext = [[EAGLContext alloc] initWithAPI:kEAGLRenderingAPIOpenGLES2];
//                       CIContext *context = [CIContext contextWithEAGLContext: gpucontext];
                       
                      
                       //创建基于 CPU 的 CIContext 对象
//                       CIContext *context = [CIContext contextWithOptions: [NSDictionary dictionaryWithObject:[NSNumber numberWithBool:YES] forKey:kCIContextUseSoftwareRenderer]];
                       
                       // 渲染并输出CIImage
                       CIImage *outputImage = [fiter outputImage];
                       // 创建CGImage句柄
                       CGImageRef Cgimage = [context createCGImage:outputImage fromRect:[outputImage extent]];
                       UIImage *showimage = [UIImage imageWithCGImage:Cgimage];
                       // 释放CGImage句柄
                       CGImageRelease(Cgimage);
                       dispatch_async(dispatch_get_main_queue(), ^(void){
                           //回到主线程给控件赋值(渲染之后的图片)
                           imageview.image = showimage;
                       });
                   });

注意事项

小知识点

获取CIFilter-Names : [CIFilter filterNamesInCategory:nil]
获取当前Filter的输入参 : [filter inputKeys]
获取当前Filter的输出参数 : [filter outputKeys]
输入参数的attributes : [filter attributes]

UIImage 属性.CIImage 可能为nil。只有UIImage基于CIImage创建的,才能通过.CIImage得到
使用filter生成的图片并不是总能使用UIImage进行渲染
生成的图片.extent 可能会是 "infinite(无穷大)".这样的图片不会被渲染, 需要进行CICrop进行裁切。
如果filter对图片进行放大等操作而且需要裁切的,那么他是通过"Center向四周放大的" 那么或许图片的时候应该考虑到裁切的范围补偿。

注意事项

1.为了防止阻塞主线程,用GCD异步执行滤镜与渲染操作,在获取渲染后的照片以后,返回主线程进行界面的更新。
2 不要重复应用滤镜,即使是同一个滤镜也不要应用两次,因为滤镜后输出照片包含滤镜链,在进行照片渲染是会将滤镜链效果叠加到原始数据上,这时会造成问题。比如,有一个CIImage,上面配置了强度为0.5的棕色滤镜,现在通过滑块将强度改为0.6,这个滤镜应该用在原始的CIImage上,如果不是原始的CIImage上,那么新的CIImage中将包含强度为0.5和0.6的棕色滤镜,而我们只想0.6的棕色滤镜,这样就造成错误,这一点在编写程序的时候一定要切忌。
3 app中应用的滤镜太多,改变速率太快,如果是根据滑块来产生事件的话,一定要注意在使用滑条值前要首先判断更改的滤镜当前是否正在起作用,如果该滤镜正在生成新的渲染图片,则应该使用这次滑块的更新。这一点也是很重要的,弄的不好常常导致程序崩溃,出现内存泄露问题。
4 建一个全局的变量CIContext去维护每一次滤镜参数的改变,你需要重新用新的值进行图像过滤。因为每个上下文中都是有缓存的,频繁创建就用不到上下文中的缓存,既浪费资源又浪费内存的消耗,使程序非常地慢。另一步优化是你可以保存CIFilter和存有初始图像的CIImage。对每一个输出你都需要生成一个新的CIFilter,但是每次初始用到的图像始终是同一个。

你可能感兴趣的:(CoreImage的使用与注意事项)