关于Unity的截屏方法


序:开始决定写东西,内容不限,关于工作内容的,关于自己业余研究的,关于生活的...因为只有写下来,思路才会更清晰,印象才会更深刻,更可以Share。ps:我是个女码农,现在从事Unity游戏、应用的开发。不要试图问一个女生为什么选择这个职业,做了就是做了,并且要做好。


Ok,well这次简短点,我最近碰到一个关于Unity截屏的问题。用过的人很快会想到两种截屏的方式:

  1. Application.CaptureScreenshot(string file name),这会截取当前屏幕保存为png格式,存放在Application.dataPath(PC/Mac),Application.persistantDataPath(移动设备)。如果需要获取图片用作显示,或保存在系统照片集下,就需要通过www的方式读取后再做处理,不是很方便。

  2. Texture2D.ReadPixels(Rect source, int destX, int destY, bool recaculateMipmaps=true), 这会读取指定区域内的屏幕像素至一张texture中,用于UI显示、保存等。相比方法一更方便直观。我们大多数都是采用该方法。

但是,最近碰到的问题是,在一些低端性能差点的Android设备上,用以上两种方式截出来的图是黑色(像素值全是0),用了coroutine方式WaitEndOfFrame,试图修改Texture2D的format、size,放在Monobehavior.OnPostRender()中...试过想到的各种方法均无效,也没有报warning、error。就想到尝试用第三种方式来实现:RenderTexture。

通过将Camera的内容渲染到一张RT中,然后用Texture2D.ReadPixels()方法从当前的RT中读取,结果可行!代码如下:

public static Texture2D CaptureCamera(Rect rect,  params Camera[] cameras)
{
    RenderTexture rt = new RenderTexture ((int)Screen.width, (int)Screen.height, 24);
    //临时设置相关相机的targetTexture为rt, 并手动渲染相关相机
    for (int i=0; i

分析原因,有如下推断:Android渲染采用了双缓冲,而前两种方式是从绘制到当前屏幕的framebuffer中读数据,当设备运行慢时,在Unity调用接口所读到的数据是从正在写入的framebuffer里面的,还没有swap送入屏幕显示,所以读到的像素值为0。采用RenderTexture方式将Camera绘制内容写入texture中,从该texture中读取数据能够解决上述问题,确保数据有效。
这是我的一个推断,可能是其他原因,搜索以及debug无果,希望以后的开发中能彻底知晓原因。

你可能感兴趣的:(关于Unity的截屏方法)