图形学之Unity渲染管线流程分析

下图是《Unity Shader 入门精要》一书中的渲染流程图;

图形学之Unity渲染管线流程分析_第1张图片

ApplicationStage阶段:准备场景信息(视景体,摄像机参数)、粗粒度剔除、定义每个模型的渲染命令(材质,shader)——由开发者定义,不做讨论;

GemetryStage阶段:顶点着色器、曲面细分着色器、几何着色器、裁剪、屏幕映射;

RasterizerStage阶段:三角形设置遍历,片元着色器、逐片元操作;

每个阶段具体操作如下图(虚线框是可选阶段):

图形学之Unity渲染管线流程分析_第2张图片

模型空间——矩阵变换——齐次裁剪空间——透视除法——NDC标准设备坐标——屏幕映射

齐次裁剪空间是视景体空间(台体);

CVV:标准视体-也就是NDC坐标系对应的空间;

透视除法:顶点坐标除以w分量,将当前z深度所在的截面缩放为(2,2,2)的截面坐标;所以w分量记录了z深度信息;

硬件做透视除法获得NDC归一化设备坐标——再经过屏幕映射获得屏幕坐标系下顶点坐标;

Unity使用OpenGL的NDC,z分量在[-1,1];

OpenGL和DirectX差异

NDC空间——OpenGL为[-1,1],DirectX为[0,1],深度z范围不同;

窗口坐标系——DirectX左上角原点,OpenGL左下角原点;

投影平面——DirectX投影平面就是视景体近截面,OpenGL有视平面;

左右手坐标系——DirectX左手,OpenGL右手,叉乘顺序;

问题:

为什么片元不叫像素?

片元是很多状态的集合,记录了该像素的屏幕坐标,深度信息,法线,UV等;

DrawCall为什么会影响性能?

DrawCall是CPU向GPU添加渲染命令的过程,过程会由CPU向GPU发送数据(模型信息),DrawCall的次数越多CPU消耗性能就越大,DrawCall次数过多会导致每一帧CPU来不及发送全部数据给GPU渲染;

GPU有一个命令缓存区(Command Buffer),CPU的渲染命令都会存储在这里,GPU从命令缓存区依次执行渲染命令;

两种渲染命令:渲染模型(CPU提交模型信息也就是DrawCall)和改变渲染状态(着色器纹理状态改变,更耗时);

一般情况都是GPU渲染完成等待CPU发渲染命令;

你可能感兴趣的:(图形学之Unity渲染管线流程分析)