为何要用nv12 或nv21?
官方解释是方便渲染使用。个人理解 :方便将nv12(DXGI_FORMAT_NV12)或nv21(DXGI_FORMAT_NV21)数据放到一个texture中,然后通过shader进行渲染。nv12与nv21区别是u与v的存放空间的位置问题,一个在前一个在后。
下面是msdn中对nv12 aligned 格式的图例描述(y:width,height ;uv:width,height/2)memory(width*height*3/2)
类似的还有DXGI_FORMAT_P010(YV12 10bit)和DXGI_FORMAT_P016(YV12 16bit),DXGI_FORMAT_420_OPAQUEY(YV12 8bit)。
下面是msdn中对yv12 aligned 格式的图例描述(y:width,height ;u:width/2,height/2 ;v:width/2,height/2) memory(width*height*2)
从上面的截图可以看出,nv12相比于yv12的优势在空间利用率更高。因为空间都是成块的申请的,很显然上面的yv12中,在u和v的后面部分被空余了。
如果原始数据在cpu内存中是420p(YV12),一般存储是连续的,而不是aligned 的 ,如果要放到texture中,需要做aligned 操作和必要的转换。(aligned的目的是使内存块按行列对齐,使可以通过横纵坐标来访问。迎合texture的这一个基本的需求)
nv12 nv21 最终都是需要转换成rgb或rgba的。一般在自己写的shader中转换。
参考:
https://docs.microsoft.com/zh-cn/windows/desktop/api/dxgiformat/ne-dxgiformat-dxgi_format
https://www.gamedev.net/forums/topic/678034-how-to-read-dxgi-format-nv12-or-dxgi-format-p010-texture-in-direct3d-shader/
https://social.msdn.microsoft.com/Forums/vstudio/en-US/f8b73c84-c205-4da5-b7bc-982ccc9ad1f8/nv12-textures-not-working-in-directx-111?forum=wpdevelop
在D3d9中可以通过surface来显示
测试成功案例:https://blog.csdn.net/balijinyi/article/details/80284561
在D3D11中可以通过ID3D11VideoDecoderOutputView 来显示。
msdn中关于yuv的详细介绍:
https://docs.microsoft.com/zh-cn/windows/desktop/medfound/recommended-8-bit-yuv-formats-for-video-rendering
里面介绍nv12 yv12 只能算是一种texture array,但是又比较特殊的array
对于想将nv12 传入shader resource的同学 ,坑定 会 遇到nv12 作为shader resource传入的问题。通过ShaderResourceView 可以巧妙的让y和uv分开显示。msdn的说法就是y和uv需要放到两个view中显示。
可通过下面方式进行操作:
一个nv12 texture 可以直接放到srv数组中。这样在shader中被当做两个纹理来使用。(可以将nv12 texture理解为一个特殊的纹理数组)
c++代码中:
void init(){
hr = g_pd3dDevice->CreateSamplerState( &sampDesc, &g_pSamplerLinear[0] );
if( FAILED( hr ) )
return hr;
hr = g_pd3dDevice->CreateSamplerState(&sampDesc, &g_pSamplerLinear[1]);
if (FAILED(hr))
return hr;
SRVDesc.Format = DXGI_FORMAT_R8_UNORM;//y
SRVDesc.ViewDimension = D3D11_SRV_DIMENSION_TEXTURE2D;
SRVDesc.Texture2D.MipLevels = 1;
hr = g_pd3dDevice->CreateShaderResourceView(tex, &SRVDesc, &g_pTextureRV[0]);//srv[0]映射到y的地址上去了
SRVDesc.Format = DXGI_FORMAT_R8G8_UNORM;//DXGI_FORMAT_R8G8_UNORM //uv
hr = g_pd3dDevice->CreateShaderResourceView(tex, &SRVDesc, &g_pTextureRV[1]); //srv[1] 映射到了uv的地址上去了
}
void update()
{
g_pImmediateContext->PSSetShaderResources( 0, 2, g_pTextureRV ); //将srv数组传入
}
PS中
Texture2D txDiffuse : register( t0 ); //指向了srv数组的的第一个成员(实际是y)
SamplerState samLinear : register( s0 );
Texture2D txDiffuse1 : register(t1);//指向了srv数组的第二个成员(实际是uv)
SamplerState samLinear1 : register(s1);
可参考https://blog.csdn.net/qiushangren/article/details/89244745来测试。记得设置bindflag为D3D11_BIND_SHADER_RESOURCE
yuv转换函数
float4 yuvtorgb(float y,float u,float v){
y = y*255;u = u*255;v = v*255;
float4 rgba;
rgba.r = clamp((y + 1.402*(v - 128))/255.0f,0,1.0f);
rgba.g = clamp((y - 0.34414*(u - 128) - 0.71414*(v - 128))/255.0f,0,1.0f);
rgba.b = clamp((y + 1.772*(u - 128))/255.0f,0,1.0f);
rgba.a = 1.0f;
return rgba;
}
参考:https://social.msdn.microsoft.com/Forums/en-US/e19906f4-afd5-455b-82ba-92c63addabec/how-to-convert-dxgiformatnv12-to-dxgiformatr8g8b8a8unorm
good luck。