URP渲染管线初步解析

LWRP现在在unity2019已经成为默认的管线了,并更名为URP(通用渲染管线),替代了原来的builtin管线,以下是应用阶段的渲染流程顺序。

URP渲染管线初步解析_第1张图片

 

步骤分析

URP整个渲染的主入口在UniversalRenderPipeline,他继承的RenderPipeline,是rsp的渲染流程关键类

PipelineSettings:这里会获取UniversalRenderPipelineAsset(也就是我们外部传入的管线的参数)

ScriptableRenderer:srp渲染器,需要把UniversalRenderPipelineAsset传给他。他是渲染核心,他会收集所有当前帧要渲染的pass,以及他会拥有渲染相关的灯光和后处理等执行方法。

PerFrameBuffer:每帧设置的缓存数据

_GlossyEnvironmentColor:主要用于PBR这块的全局光照的颜色,在Lighting.hlsl的GlossyEnvironmentReflection,可以看到他主要是全局光照的高光部分颜色。

_SubtractiveShadowColor:主要用在除了主光源外的lightmap计算的阴影颜色。在SubtractDirectMainLightFromLightmap里使用。

PerCameraBuffer:每帧摄像机的缓存数据

_InvCameraViewProj:视图空间到投影空间的转置矩阵,如果用原始矩阵乘以反向矩阵结果为identity矩阵。如果一些矩阵以一个特定的方式变换向量,反向矩阵可以将他们变换回去。例如worldToLoclaMatrix和localToWorldMatrix是互逆的。

_ScaledScreenParams:屏幕缩放参数

antiAliasing:从asset中获取msaaSampleCount

Shader.globalRenderPipeline = " UniversalPipeline ";设置全局管线为UniversalPipeline

lightsDelegate:全局光照的回调

执行到Render中执行具体渲染流程:

SetupPerFrameShaderConstants:设置全局光照的数据,设置PerFrameBuffer中的_GlossyEnvironmentColor和_SubtractiveShadowColor。

其中_GlossyEnvironmentColor是通过球形谐波方程决定颜色的,最后要转到当前颜色空间(gamma空间或线性空间)

_SubtractiveShadowColor则是直接赋值具体的除去主光源后的阴影颜色,只是也有最后转到当前颜色空间的转换。

对当前Render给过来当前有哪些相机渲染的数据来进行每个相机的渲染RenderSingleCamera。
每个相机中的渲染步骤如下:

CullResults.GetCullingParameters:获取相机下的裁剪参数,如果返回false说明没有聂荣,不需要渲染这个相机。如果需要考虑到类似vr等情况需要区分左右眼的摄像机时需要把stereoAware设置为true。

CommandBuffer cmd = CommandBufferPool.Get(k_RenderCameraTag):这里从命令缓存池中获取一个gl命令缓存,CommandBuffer主要用于收集一系列gl指令,然后之后执行。

ProfilingSample是对指定名字做性能采样。

InitializeCameraData:初始化摄像机数据。

cameraData.msaaSamples:如果数量大于1说明需要多重采样。

cameraData.isSceneViewCamera:这个是查看当前要渲染的是否在unity的scene视图。

cameraData.isOffscreenRender:屏幕外渲染,如果摄像机的targettexture存在并且不是scene视图则这个为true。

cameraData.isStereoEnabled:就是左右眼做区别的摄像机,用于vr等

cameraData.isHdrEnabled:是否支持hdr,也就是高动态范围图像,就是可以在高光情况下能看清一些光照细节,提高细节渲染。

cameraData.postProcessLayer:后处理

cameraData.postProcessEnabled:是否开启后处理

cameraData.renderScale:渲染缩放比例

cameraData.opaqueTextureDownsampling:降采样

cameraData.isDefaultViewport:如果是正常的(0,0,1,1)则是默认的

cameraData.maxShadowDistance:最大阴影范围

cameraData.requiresDepthTexture:是否启用深度纹理

cameraData.requiresOpaqueTexture:是否保存非透明颜色信息

cameraData.defaultOpaqueSortFlags:默认的非透明渲染顺序

SetupPerCameraShaderConstants

PerCameraBuffer._ScaledScreenParams:是一个vector4,包括相机像素的长宽和纹素

PerCameraBuffer._InvCameraViewProj:设置摄像机视角的逆矩阵,通过GL.GetGPUProjectionMatrix获取到当前gpu正确坐标系的投影矩阵,再跟camera.worldToCameraMatrix视图矩阵相乘得到视图到投影的矩阵,再用Matrix4x4.Inverse获取逆矩阵。

cullingParameters.shadowDistance:设置阴影距离,这里会根据摄像机最远渲染距离来获得最远可达到的距离。

ScriptableRenderContext.ExecuteCommandBuffer(cmd):执行命令缓存

cmd.Clear();清除缓存数据

CullResults.Cull:根据裁剪的参数cullingParameters和context指定的渲染指令得到裁剪的灯光,物体等。

InitializeRenderingData:初始化渲染相关数据

GetMainLight:获取主光源,如果是直线光并且mainLightRenderingMode不为LightRenderingMode.PerPixel就是主光源。

mainLightCastShadows:如果可见光存在而且阴影设置存在则为true。

additionalLightsCastShadows:如果additionalLightsRenderingMode是LightRenderingMode.PerPixel并且可见光存在并且lightType是LightType.Spot且阴影存在则为true。

InitializeLightData:初始化灯光数据,这里设置了mainLightIndex(也就是GetMainLight获取的),设置additionalLightsCount获取叠加光源的数量,maxPerObjectAdditionalLightsCount最大叠加光源数量,shadeAdditionalLightsPerVertex就是是否是叠加光源,visibleLights可视光源,supportsMixedLighting支持混合光源。

InitializeShadowData:初始化阴影数据,如果有多光源会添加LWRPAdditionalLightData到光源的gameobject上,m_ShadowBiasData会设置阴影偏移和阴影发现偏移,主要用于解决自阴影的问题。

supportsMainLightShadows支持主光源阴影 。

mainLightShadowCascadesCount是阴影的级联个数,(mainLightShadowmapWidth、mainLightShadowmapHeight)主光源阴影贴图的宽高。

mainLightShadowCascadesSplit是阴影的级联分割,supportsAdditionalLightShadows是否支持多光源阴影。

additionalLightsShadowmapWidth、additionalLightsShadowmapHeight是多光源阴影贴图的宽和高都是additionalLightsShadowmapResolution。

supportsSoftShadows支持软阴影。

supportsDynamicBatching:是否支持动态批处理,这个是lwrp的动态批处理。

设置完渲染数据后就是开始设置渲染的顺序了:

renderer.Clear():再设置之前需要清理renderer的数据,不然前一帧渲染的dc是不会清掉的,dc就会越来越高。

setupToUse.Setup(renderer, ref renderingData):默认lwrp是用DefaultRendererSetup来设置的,当然你也可以实现IRendererSetup然后传入Render来自己实现。

DefaultRendererSetup:lwrp默认会有一系列渲染过程。会再Setup中确定渲染的先后。

SetupPerObjectLightIndices设置每个对象光照信息。

CreateRenderTextureDescriptor创建rt数据信息。

GetCameraClearFlag获取当前摄像机清理方式,lwrp对这层做了一些处理,主要是对深度剔除做了一些选项

如果是渲染到纹理则用CreateLightweightRenderTexturesPass这个pass执行一次渲染。

如果有渲染前要执行的pass要实现IBeforeRender接口,并且可以多个pass。

如果支持主光源阴影投放则执行MainLightShadowCasterPass的pass。

如果支持多光源阴影投放则执行AdditionalLightsShadowCasterPass。

之后执行SetupForwardRenderingPass,这个pass是必然执行的,设置摄像机到context里。

如果支持深度贴图获取的话会执行DepthOnlyPass(requiresDepthPrepass决定是否执行他),这里会用一个rt保存深度贴图新消息。

如果支持屏幕空间阴影获取,则会执行ScreenSpaceShadowResolvePass,这里会用一个rt记录屏幕空间中的阴影贴图。

然后执行SetupLightweightConstanstPass,主要设置主光源和其他光源的颜色,位置以及其他属性。如果不设置则会是默认颜色和位置等信息。

然后执行RenderOpaqueForwardPass,这个pass定义了两个pass名,LightweightForward和SRPDefaultUnlit。然后再Execute申请cmd来做不透明渲染。

如果支持后处理则会执行OpaquePostProcessPass,里面是申请一个临时rt做相关不透明的后处理。

如果是相机是天空盒清除方式的话并且天空盒不是空的话则执行DrawSkyboxPass,里面会绘制天空盒。

如果需要天空盒处理之后执行的话需要继承IAfterSkyboxPass实现相关pass。

如果是支持深度贴图的话并且没有执行requiresDepthPrepass的话(就是前面执行DepthOnlyPass的判断)则会执行CopyDepthPass,这里主要是拷贝深度贴图到全局变量_CameraDepthAttachment中,shader可以直接获取这个变量(如果有开深度贴图获取)

如果开启了接收不透明贴图的话则执行CopyColorPass,这里主要是把不透明渲染后的颜色输出到临时rt中。

然后执行RenderTransparentForwardPass,透明渲染方式。

如果支持后处理则执行TransparentPostProcessPass,也是一样申请一个临时rt做相关透明渲染的后处理。如果不需要并且不支持屏幕外渲染并且不是渲染到纹理的则要执行FinalBlitPass,这里主要设置贴图到全局变量_BlitTex,然后把颜色blit到内置rt中。

然后如果摄像机有IAfterRender的mono则会执行pass中的GetPassToEnqueue方法。

最后还会有一个EndXRRenderingPass的渲染,这个是支持立体摄像机的情况下执行的,主要是停止立体摄像机渲染。

然后再到外面renderer.Execute(context, ref renderingData);也就是把所有pass都执行一次。(前面只是加入到列表中,并没有执行每个pass的execute)

最后需要context.Submit来提交渲染,这时相应的gpu才会根据cmd来执行所有的pass。

源码分析

渲染前阶段:

根据渲染资产初始化渲染管线

      public UniversalRenderPipeline(UniversalRenderPipelineAsset asset)      
        {
            SetSupportedRenderingFeatures();    //设置渲染支持功能
            //PerFrameBuffer类中的参数指定
            PerFrameBuffer._GlossyEnvironmentColor = Shader.PropertyToID("_GlossyEnvironmentColor");
            PerFrameBuffer._SubtractiveShadowColor = Shader.PropertyToID("_SubtractiveShadowColor");
            PerFrameBuffer._Time = Shader.PropertyToID("_Time");        
            PerFrameBuffer._SinTime = Shader.PropertyToID("_SinTime");
            PerFrameBuffer._CosTime = Shader.PropertyToID("_CosTime");
            PerFrameBuffer.unity_DeltaTime = Shader.PropertyToID("unity_DeltaTime");
            PerFrameBuffer._TimeParameters = Shader.PropertyToID("_TimeParameters");
            PerCameraBuffer._InvCameraViewProj = Shader.PropertyToID("_InvCameraViewProj");
            PerCameraBuffer._ScreenParams = Shader.PropertyToID("_ScreenParams");
            PerCameraBuffer._ScaledScreenParams = Shader.PropertyToID("_ScaledScreenParams");
            PerCameraBuffer._WorldSpaceCameraPos = Shader.PropertyToID("_WorldSpaceCameraPos");
            // Let engine know we have MSAA on for cases where we support MSAA backbuffer
            if (QualitySettings.antiAliasing != asset.msaaSampleCount)      //设置多重采样抗锯齿
                QualitySettings.antiAliasing = asset.msaaSampleCount;
            // For compatibility reasons we also match old LightweightPipeline tag.
            Shader.globalRenderPipeline = "UniversalPipeline,LightweightPipeline";  //设置渲染管线
            Lightmapping.SetDelegate(lightsDelegate); 
            CameraCaptureBridge.enabled = true;
            RenderingUtils.ClearSystemInfoCache();
        }

渲染阶段

1. 开始帧渲染

BeginFrameRendering(renderContext, cameras);    //开始帧渲染

2. 判断色彩空间是否为线性空间

GraphicsSettings.lightsUseLinearIntensity = (QualitySettings.activeColorSpace == ColorSpace.Linear);    //色彩空间是否是线性空间

3. 设置资产中的Batcher

GraphicsSettings.useScriptableRenderPipelineBatching = asset.useSRPBatcher; //设置资产中的Batcher

4. 设置每帧shader参数

SetupPerFrameShaderConstants(); //设置帧着色器常量

5. 排序相机

SortCameras(cameras);   //排序相机

6. 遍历相机/开始相机渲染/渲染单个相机/结束相机渲染

foreach (Camera camera in cameras)      //遍历相机
{
   BeginCameraRendering(renderContext, camera);    //开始相机渲染
   #if VISUAL_EFFECT_GRAPH_0_0_1_OR_NEWER
                //It should be called before culling to prepare material. When there isn't any VisualEffect component, this method has no effect.
         VFX.VFXManager.PrepareCamera(camera);
	#endif
         RenderSingleCamera(renderContext, camera);  //渲染单个相机
         EndCameraRendering(renderContext, camera);  //结束相机渲染
 }

7. 结束帧渲染

EndFrameRendering(renderContext, cameras);  //结束帧渲染

渲染单个相机流程(RenderSingleCamera)

URP渲染管线初步解析_第2张图片

 

源码分析

1. 初始化剔除参数

if (!camera.TryGetCullingParameters(IsStereoEnabled(camera), out var cullingParameters))    //初始化剔除参数
return;

2. 获取UniversalAdditionCameraData

UniversalAdditionalCameraData additionalCameraData = null;
if (camera.cameraType == CameraType.Game || camera.cameraType == CameraType.VR)
camera.gameObject.TryGetComponent(out additionalCameraData);

3. 初始化CameraData,InitializeCameraData方法

InitializeCameraData(settings, camera, additionalCameraData, out var cameraData);

4. 设置每个相机的shader参数

SetupPerCameraShaderConstants(cameraData);

SetupPerCameraShaderConstants方法:

//设置每个相机的shader参数
static void SetupPerCameraShaderConstants(CameraData cameraData)
{
   Camera camera = cameraData.camera;
   float scaledCameraWidth = (float)cameraData.camera.pixelWidth * cameraData.renderScale;
   float scaledCameraHeight = (float)cameraData.camera.pixelHeight * cameraData.renderScale;
   Shader.SetGlobalVector(PerCameraBuffer._ScaledScreenParams, new Vector4(scaledCameraWidth, scaledCameraHeight, 1.0f + 1.0f / scaledCameraWidth, 1.0f + 1.0f / scaledCameraHeight));
   Shader.SetGlobalVector(PerCameraBuffer._WorldSpaceCameraPos, camera.transform.position);
   float cameraWidth = (float)cameraData.camera.pixelWidth;
   float cameraHeight = (float)cameraData.camera.pixelHeight;
   Shader.SetGlobalVector(PerCameraBuffer._ScreenParams, new Vector4(cameraWidth, cameraHeight, 1.0f + 1.0f / cameraWidth, 1.0f + 1.0f / cameraHeight));
  Matrix4x4 projMatrix = GL.GetGPUProjectionMatrix(camera.projectionMatrix, false);
  Matrix4x4 viewMatrix = camera.worldToCameraMatrix;
  Matrix4x4 viewProjMatrix = projMatrix * viewMatrix;
  Matrix4x4 invViewProjMatrix = Matrix4x4.Inverse(viewProjMatrix);
  Shader.SetGlobalMatrix(PerCameraBuffer._InvCameraViewProj, invViewProjMatrix);
        }

5. 获取ScriptableRenderer

ScriptableRenderer renderer = (additionalCameraData != null) ? additionalCameraData.scriptableRenderer : settings.scriptableRenderer;

6. 填充剔除参数、CameraData

renderer.SetupCullingParameters(ref cullingParameters, ref cameraData);

7. 性能采样

context.ExecuteCommandBuffer(cmd);

8. 编辑器模式下Scene相机额外显示UI

#if UNITY_EDITOR
// Emit scene view UI       编辑器模式下Scene相机额外显示UI
if (cameraData.isSceneViewCamera)
ScriptableRenderContext.EmitWorldGeometryForSceneView(camer);
#endif

9. 剔除

var cullResults = context.Cull(ref cullingParameters);      //剔除

10. 根据管线设置、CameraData、剔除结果,初始化渲染数据RenderingData

InitializeRenderingData(settings, ref cameraData, ref cullResults, out var renderingData);

11. 使用ScriptableRenderer根据RenderingData,Setup并Exute渲染上下文

renderer.Setup(context, ref renderingData);
renderer.Execute(context, ref renderingData);

12. 释放CommandBufferPool

CommandBufferPool.Release(cmd);

13. 提交渲染上下文

context.Submit();

你可能感兴趣的:(URP,Unity,UPR)