音视频之基础+渲染流程

常用图形API简介:

OpenGL(Open Graphics Library)是一个跨编程语言、跨平台的编程图形程序接口,它将计算机的资源抽象称一个个OpenGL的对象,对这些资源的操作抽象为一个个的OpenGL指令。
OpenGL ES(OpenGL for Embedded Systems)是OpenGL三维图形API的子集,针对手机PDA和游戏机等嵌入式设备而设计,去除了许多不必要和性能低的API的接口。
DirectX 是由很多API组成的,DirectX并不是一个单纯的图形API,最重要的是DirectX是属于Windows上一个多媒体处理API,并不支持Windows以外的平台,所以不是跨平台的框架,按照性质分类。可以分为四大部分:显示部分、声音部分、输入部分和网络部分。
Metal :Metal :Apple为游戏开发者退出了新的平台技术Metal,该技术能够为3D图像提高10倍的渲染性。Metal是Apple为解决3D渲染而推出的框架

OpenGL / OpenGL ES /Metal在任何项目中解决问题的本质就是利用GPU芯片来高效渲染图形图像,图形API是iOS开发唯一接近GPU的方式

  • OpenGL上下文【context】
    1.在应用程序调用任何OpenGL的指令之前,需要安排首先创建一个OpenGL的上下文。这个上下文是一个非常庞大的状态机,保存了OpenGL中的各种状态,这也是OpenGL指令执行的基础。
    2.OpenGL的函数不管在哪个语言中,都是类似C语言一样的面向过程的函数,本质是都是对OpenGL上下文这个庞大的状态机中的某个状态或者对象进行操作,当然你得首先把这个对象设置为当前对象。因此,通过对OpenGL指令的封装,是可以将OpenGL的相关封装成为一个面向对象的图形API
    3.由于OpenGL上下文是个庞大的状态机,切换上下文往往会产生比较大的开销,但是不同的绘制模块,可能需要使用完全独立的状态管理。因此,可以在应用程序中分别创建多个不同的上下文,在不同的线程中使用不同的上下文,上下文之间共享纹理、缓冲区等资源。这样的方案,会比反复切换上下文或者大量修改渲染状态,更加合理高效。

  • OpenGL状态机
    状态机是理论上的一种机器。状态机描述了一个对象在其生命周期内所经历的各种状态,状态间的转变,发生转变的动因,条件及转变中所执行的活动。或者说,状态机是一种行为,说明对象在其生命周期中响应事件所经历的状态序列以及对那些状态事件的响应
    有记忆功能,能记住其当前的状态
    可以接收输入,根据输入的内容和自己原先状态,修改当前自己状态,并且可以有对应输出
    当进入特殊状态(停机状态)的时候,便不在接收输入,停止工作
    类推到OpenGL中,可以理解为:
    OpenGL可以记录自己的状态(如当前所使用的颜色、是否开启了混合功能等)
    OpenGL可以接收输入(当调用OpenGL函数的时候,实际上可以看成OpenGL在接收我们的输入),如我们调用glColor3f,则OpenGL接收到这个输入后会修改自己“当前颜色”这个状态
    OpenGL可以进入停止状态,不再接收输入,在程序退出前,OpenGL总会先停止工作的
    渲染--> 将图像、图形数据转换成3D空间图像操作叫做渲染(Rendering)

  • 顶点数组【VertexArray】
    画图一般是先画好图像的骨架,然后再往骨架里面填充颜色,这对于OpenGL也一样。顶点数据就是要画的图像的骨架,和现实中不同的是,OpenGL中的图像都是由图元组成。在OpenGL中,有3中类型的图元:点、线、三角形这些顶点数据最终存储在哪里呢?开发者可以选择设定函数指针,在调用绘制方法的时候,直接由内存传入顶点数据,也就是说这部分数据之前是存储在内存中的,被称为顶点数组。
    顶点指的是我们在绘制一个图形时,它的顶点位置数据,而这个数据可以直接存储在数组中或者将其缓存到GPU内存中

  • 和顶点缓冲区【VertexBuffer】
    而性能更高的做法是,提前分配一块显存,将顶点数据预先传入到显存当中。这部分的显存,就被称为顶点缓冲区

  • 管线
    在OpenGL下渲染图形,就会有经历一个一个节点。而这样的操作可以理解管线。类似于流水线,任务之间有先后顺序,管线是一个抽象的概念,之所以称之为管线是因为显卡在处理数据的时候是按照一个固定的顺序来的,而且严格按照这个顺序

  • 固定管线/存储着色器
    在早起的OpenGL版本,它封装了很多种着色器程序块内置一段包含了光照、坐标转换、裁剪等等诸多功能的固定shader程序来完成,来帮助开发者完成图形的渲染,开发者只需传入相应的参数,就能快速完成图形的渲染。类似于iOS开发者会封装很多API,而我们只需要调用。就可以说实现功能,不需要关注底层的实现原理。
    但是OpenGL的使用场景非常丰富,固定管线或存储着色器无法完成每一个业务,这时将相关部分开放成可编程

  • 着色器程序Shader
    就全面的将固定渲染管线架构变为了可编程渲染管线。因此,OpenGL在实际调用绘制函数之前,还需要制定一个由shader编译成的着色器程序。常见的着色器主要有顶点着色器(VertexShader)片段着色器(FragmentShader)/像素着色器(PixelShader)几何着色器(GeometryShader)曲面细分着色器(TessellatiionShader)。片段着色器和像素着色器只是在OpenGL和DX中的不同叫法而已。OpenGL3.0 依然只支持顶点着色器和片段着色器这两个最基础的着色器。
    OpenGL在处理shader时,和其他编译器一样。通过编译、链接等步骤,生成了着色器程序(glProgram),着色器程序同时包含了顶点着色器和片段着色器的运算逻辑。在OpenGL进行绘制的时候,首先由顶点着色器对传入的顶点数据进行运算,再通过图元装配,将顶点转换为图元,然后进行光栅化,将图元这种矢量图形、转换为栅格化数据。最后将栅格化数据传入片段着色器中进行运算。片段着色器会对栅格化数据中的每一个像素进行运算,并决定像素的颜色。

  • 顶点着色器VertexShader
    一般用来处理图形每个顶点变换【旋转、平移、投影】
    顶点着色器是OpenGL中用于计算顶点属性的程序。顶点着色器是逐个顶点运算的程序,也就是说每个顶点数据都会执行一次顶点着色器,当然这是并行的,并且顶点着色器运算时无法访问其他顶点数据
    一般来说典型的需要计算的顶点属性包括顶点左边变换、逐个顶点关照运算等。顶点坐标由自身坐标系转换到归一化坐标器的运算,就是在这里发生的。

  • 片元着色器程序FragmentShader
    用来处理图形中每个像素点颜色计算和填充
    片元着色器是OpenGL中用于计算片段(像素)颜色的程序。片段着色器是这个像素运算,也就是说每个像素都会执行一次片段着色器,并行执行。

  • GGSL(OpenGL Shading Language)
    OpenGL着色语言(OpenGL Shading Language)是用来在OpenGL中着色编程的语言,也即是开发写的短小自定义程序,他们是在图形卡的GPU(Graphic Progcessor Unit图形处理单元)上执行的,代替了固定的渲染管线的一部分,使得渲染管线中不同层次具有可编程性。比如:试图转换、投影转换等。GLSL(GL Shading Language)的着色器代码分成两个部分:Vertex Shader(顶点着色器)Fragment(片段着色器)

  • 光栅化Rasterization
    把顶点数据转换为片元的过程,具有将图转化为一个个栅格组成的图像的作用,特点是每个元素对应帧缓冲区的一个像素。光栅化就是把顶点数据转换为片元的过程,片元中的每一个元素对应于帧缓冲区的一个像素。
    光栅化其实是一种将几何图元变为二维图像的过程。该过程包含了两个部分的工作。一:决定窗口坐标中的哪些整形栅格区域被基本图元占用;二:分配一个颜色值和一个深度值到各个区域。光栅化过程产生的是片元
    把物体的数学描述以及物体相关的颜色信息转换为屏幕上用于对应位置的像素及用于填充像素的颜色。这个过程被称为光栅化,这是一个将模拟信号转化为离散信号的过程。

  • 纹理
    纹理可以理解为图片。大家在渲染图形时需要在其编码填充图片,为了使得场景更加逼真。而这里使用的图片,就是常说的纹理。但是在OpenGL,我们习惯叫纹理,而不是图片

  • 混合(Blending)
    在测试阶段之后,如果像像素依然没有被剔除,那么像素的颜色将和帧缓冲区中的颜色附着上的颜色进行混合,混合的算法可以通过OpenGL的函数进行指定。但是OpenGL提供的混合算法是有限的,如果需要更加复杂的混合算法,一般可以通过像素着色器进行实现,当然性能会比原生的混合算法差一些。

  • 变换矩阵
    图形发生平移、缩放、旋转就需要使用变换矩阵实现

  • 投影矩阵
    用于将3D坐标转换为二维屏幕坐标,实际线条也将在二维坐标下绘制

  • 渲染上屏、交换缓冲区
    渲染缓冲区一般映射的是系统的资源:比如窗口,将图像直接渲染到窗口对应的缓冲区,则可以将图像显示到屏幕上,但是值得注意的是,如果每个窗口只有一个缓冲区,那么在绘制的过程中屏幕进行了刷新,窗口可能显示不完成图像?
    怎么办???
    常规的OpenGL程序至少会有两个缓冲区,显示在屏幕上的成为屏幕缓冲区,没有显示的成为离屏缓冲区。在一个缓冲区渲染完成后,通过将屏幕缓冲区和离屏缓冲区交换,实现图像在屏幕上显示,由于显示器的刷新是逐行进行的,因此为了防止交换缓冲区的时候,屏幕上下区域的图像分属于两个不同的帧,因此交换一般会等待显示器刷新完成的信号,在显示器刷新的间隔中进行交换,这个信号就垂直同步信号,使用双缓冲区和垂直同步技术后,由于总要等待缓冲区交换后再进行下一帧的渲染,是的帧率无法完全达到硬件允许的最高水平,为了解决这个问题,引入三缓冲区技术,在等待垂直同步时,来回交替渲染两个离屏的缓冲区,而垂直同步发生时,屏幕缓冲区和最近渲染完成的离屏缓冲区进行交换,实现充分利用硬件性能的目的

  • 渲染流程

    1. GPU获取图片的左边
    2. 将坐标交给顶点着色器(顶点计算)
    3. 将图片光栅化(获取图片对应屏幕上的像素点)
    4. 片元着色器计算(计算每个像素点的最终显示的颜色值)
    5. 从帧缓冲区渲染到屏幕上
      渲染管线
      音视频之基础+渲染流程_第1张图片
      9082112B468F3CDF5FDB5529C9233925.png
  • 下面代码就展示一个加载图片的优化:

//  Created by 随风流年 
//  Copyright © 2019 随风流年. All rights reserved.
//

#import "ViewController.h"
#import 

@interface ViewController ()
@property (nonatomic, weak) UIImageView *imageView;
@end

@implementation ViewController

- (void)viewDidLoad {
    [super viewDidLoad];

    [self image];

}
- (void)image{
    UIImageView *imageView = [[UIImageView alloc]init];
    imageView.frame = CGRectMake(100, 100, 100, 100);
    [self.view addSubview:imageView];
    self.imageView = imageView;
    dispatch_async(dispatch_get_global_queue(0, 0), ^{
        //获取CGImage
        CGImageRef cgImage = [UIImage imageNamed:@"img"].CGImage;
        
        // alphaInfo
        CGImageAlphaInfo alphaInfo = CGImageGetAlphaInfo(cgImage) & kCGBitmapAlphaInfoMask;
        BOOL hasAlpha = NO;
        if (alphaInfo == kCGImageAlphaPremultipliedLast ||
            alphaInfo == kCGImageAlphaPremultipliedFirst ||
            alphaInfo == kCGImageAlphaLast ||
            alphaInfo == kCGImageAlphaFirst) {
            hasAlpha = YES;
        }
        //bitmapInfo
        CGBitmapInfo bitmapInfo = kCGBitmapByteOrder32Host;
        bitmapInfo |= hasAlpha ? kCGImageAlphaPremultipliedFirst : kCGImageAlphaNoneSkipFirst;
        //size
        size_t width = CGImageGetWidth(cgImage);
        size_t height = CGImageGetHeight(cgImage);
        
        //context
        CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8, 0, CGColorSpaceCreateDeviceRGB(), bitmapInfo);
        //draw
        CGContextDrawImage(context, CGRectMake(0, 0, width, height), cgImage);
        //get CGImage
        cgImage = CGBitmapContextCreateImage(context);
        //into UIImage
        UIImage *newImage = [UIImage imageWithCGImage:cgImage];
        //release
        CGContextRelease(context);
        CGImageRelease(cgImage);
        
        //back to main thread
        dispatch_async(dispatch_get_main_queue(), ^{
            self.imageView.image = newImage;
        });
        
    });
}
  • 它接受一个原始的位图参数cgImage,最终返回一个新的解压缩后的位图newImage 中间经过一下三个步骤:
  • 使用CGBitmapContextCreate函数创建一个位图上下文
  • 使用CGContextDrawImage函数将原始位图绘制到上下文中
  • 使用CGBitmapContextCreateImage创建一张新的解压缩后的位图
    事实上,SDWebImage中对图片的解压缩过程与上述完全一致,只是传递给CGBitmapContextCreate函数的部分参数存在细微差别

你可能感兴趣的:(音视频之基础+渲染流程)