使用深度图重构世界空间坐标

如果我们知道世界空间相机的坐标,并且使用cam.depthTextureMode = DepthTextureMode.Depth;让相机能够得到屏幕深度图的话,那么我们实际上就能够用这个两个要素在后处理中重构出(已写入深度缓存的)片元在世界空间中的坐标。

不影响透明物体

动态效果

用这样的方法,我们可以做一个类似Projector在地表投影的效果,但是只用到了一个脚本和一个Shader。

重构世界空间坐标

看网上的教程学了一招,那就是我们可以自己写一个自定义的Blit方法,给要创建的Quad送入额外的TexCoord。我们刚才提到可以用世界空间相机坐标和深度图重构片元坐标,但是我们还需要一个方向向量:从相机原点到Blit中创建的Quad上的点的方向。因此,我们需要在自定义的Blit方法中为要创建的Quad的顶点添加上方向的数据,具体计算用到cam.transform的几个和方向有关的成员,以及相机FOV和屏幕长宽比例。

计算好四个顶点的方向向量后,使用GL.Begin(GL.QUADS)在屏幕上画一个Quad并传入UV和方向数据,经过插值后,我们便能在fragment shader中获取每个片元正确的方向向量(注意这里不能对方向向量normalization,否则计算世界坐标会出一定偏差)。以下是自定义Blit的脚本:

void CustomBlit(RenderTexture source, RenderTexture dest, Material mat)
    {
        float camFov = cam.fieldOfView;
        float camAspect = cam.aspect;
        float fovWHalf = camFov * 0.5f;

        Vector3 toRight = cam.transform.right * Mathf.Tan(fovWHalf * Mathf.Deg2Rad) * camAspect;
        Vector3 toTop = cam.transform.up * Mathf.Tan(fovWHalf * Mathf.Deg2Rad);
        Vector3 topLeft = (cam.transform.forward - toRight + toTop);
        Vector3 topRight = (cam.transform.forward + toRight + toTop);
        Vector3 bottomRight = (cam.transform.forward + toRight - toTop);
        Vector3 bottomLeft = (cam.transform.forward - toRight - toTop);

        RenderTexture.active = dest;
        mat.SetTexture("_MainTex", source);

        GL.PushMatrix();
        GL.LoadOrtho();

        mat.SetPass(0);

        GL.Begin(GL.QUADS);

        GL.MultiTexCoord2(0, 0.0f, 0.0f);
        GL.MultiTexCoord(1, bottomLeft);
        GL.Vertex3(0.0f, 0.0f, 0.0f);

        GL.MultiTexCoord2(0, 1.0f, 0.0f);
        GL.MultiTexCoord(1, bottomRight);
        GL.Vertex3(1.0f, 0.0f, 0.0f);

        GL.MultiTexCoord2(0, 1.0f, 1.0f);
        GL.MultiTexCoord(1, topRight);
        GL.Vertex3(1.0f, 1.0f, 0.0f);

        GL.MultiTexCoord2(0, 0.0f, 1.0f);
        GL.MultiTexCoord(1, topLeft);
        GL.Vertex3(0.0f, 1.0f, 0.0f);

        GL.End();
        GL.PopMatrix();
    }
}

纹理处理和Shader

纹理是网上随便找了一张jpeg魔法阵,Photoshop中颜色反相后复制背景图层到图层2,用选择颜色选择黑色删除留下透明部分,然后对图层2进行高斯模糊模拟发光效果。因为发光效果对图像有一定外扩,在开始时要把画布大小设置为110%。

处理前后

Shader 很简单,计算得到世界空间坐标后取xz分量和传入的效果中心xz做计算即可得到对纹理采样的UV,我还加入了一个旋转效果。采样到的值用于把颜色lerp到输入的_TintColor到白色,同时也代表加性发光强度。以下是fragment shader的代码:

half4 frag (v2f i) : SV_Target
{
    half4 col = tex2D(_MainTex, i.uv);
    float rawDepth = tex2D(_CameraDepthTexture, i.uv_depth);
    float linearDepth = LinearEyeDepth(rawDepth);
    float3 surfacePos = _WorldSpaceCameraPos + (linearDepth * i.interpolatedRay).xyz;
    half4 effectCol = half4(0, 0, 0, 0);
    float dist = distance(surfacePos.xz, _WorldSpaceEffectPos.xz);
    float s = 0; float c = 0;
    float angle = atan2((surfacePos.x - _WorldSpaceEffectPos.x),(surfacePos.z - _WorldSpaceEffectPos.z));
    angle += _Time.x * _SpinningSpeed;
    sincos(angle, s ,c);
    float2 surfaceUV = (float2(s * dist  , c * dist) / _Radius + 1) * 0.5;
    float effectFactor = tex2D(_DetailTex, float2(surfaceUV));
    if (dist < _Radius ) effectCol = lerp(_TintColor, float4(1,1,1,1) ,effectFactor) * effectFactor;
    return col + effectCol;
}

不影响透明物体

OnRenderImage前加入[ImageEffectOpaque]属性即可,这会让这个后处理效果在透明物体队列渲染开始之前其作用。

其他

类似的我们可以用这种方法做爆炸范围指示器之类的需要改变场景可视物体表面的效果。这里距离计算直接取的重构坐标的距离和爆炸中心的距离,因此实际上会有种球的效果。


不过作为爆炸指示器的话,站在掩体后应该是不能被炸到的,如果这时候想更精确的指示爆炸,那么应该要把掩体后的效果消除,而直接计算距离是达不到这种效果的。


这个暂时没想到太好的办法,觉得比较可行的是在中心放一个点光源然后读取其阴影图(待完成)。


Github: https://github.com/techizgit/UnityPlayground

你可能感兴趣的:(使用深度图重构世界空间坐标)