首先感谢前辈使用截屏的方式调用外接摄像头并保存图片:http://blog.csdn.net/a112634313/article/details/8472786
Texture2D处理http://www.narkii.com/club/thread-291958-1.html
不多说,直接上我的代码
using UnityEngine; using System.Collections; using System.IO; public class CameraTest : MonoBehaviour { public GameObject obj; WebCamTexture cameraTexture; string cameraName=""; private bool isPlay = false; // Use this for initialization void Start() { StartCoroutine(Test()); } // Update is called once per frame void Update() { obj.renderer.material.mainTexture=cameraTexture; } IEnumerator Test() { yield return Application.RequestUserAuthorization(UserAuthorization.WebCam); if (Application.HasUserAuthorization(UserAuthorization.WebCam)) { WebCamDevice[] devices = WebCamTexture.devices; cameraName = devices[0].name; cameraTexture = new WebCamTexture(cameraName, 400, 300, 15); cameraTexture.Play(); isPlay = true; } } void OnGUI() { if (isPlay) { GUI.DrawTexture(new Rect(0, 0, 400, 300), cameraTexture, ScaleMode.ScaleToFit); } if(GUI.Button(new Rect(400,0,450,50),"保存")){ StartCoroutine(getTexture2d()); } if(GUI.Button(new Rect(400,50,450,50),"AR")){ Application.LoadLevel("HelloWorld"); cameraTexture.Stop(); } } IEnumerator getTexture2d() { yield return new WaitForEndOfFrame(); //Texture2D savedTexture ;//要保存图片的大小 //截取的区域 Texture2D savedTexture=obj.renderer.material.mainTexture as Texture2D; //截图方式 /* Texture2D t = new Texture2D(200, 200);//要保存图片的大小 //截取的区域 t.ReadPixels(new Rect(0,cameraTexture.height, 400, 300), 0, 0, false); t.Apply(); //把图片数据转换为byte数组 byte[] byt = t.EncodeToPNG(); //然后保存为图片 File.WriteAllBytes(Application.dataPath + "/StreamingAssets/TutorialHelloWorld/"+"target1.png", byt); }*/ Texture2D texture = new Texture2D(cameraTexture.width, cameraTexture.height); int y = 0; while (y < texture.height) { int x = 0; while (x < texture.width) { Color color = cameraTexture.GetPixel(x, y); texture.SetPixel(x, y, color); ++x; } ++y; } texture.Apply(); byte[] pngData = texture.EncodeToPNG(); File.WriteAllBytes(Application.dataPath + "/StreamingAssets/TutorialHelloWorld/"+"target1.png", pngData); } }
之后点击保存按钮,将图片保存到指定路径:注意路径可以修改,不过没有的话它不会自己创建、会报错。看看结果
这样做和截屏相比有什么好处呢,我觉得:
1、截屏坐标需要你自己调节,unity3d默认坐标原点和截屏时候坐标原点是不一致的,一个在左上角一个在左下角,调节很麻烦
2、截屏方法一旦屏幕分辨率变化那么你的程序也要相应变化,不然会出问题
3、这种方式可以直接放到plane上或者任何Texture2D上,有很大的自由性,同时不需要担心图片是不是完整、有没有其他杂质什么的,摄像头获取的是什么,那么保存的图片就是什么。
最近又看到一种方法,就是截取相机的视野看到的内容,
Texture2D CaptureCamera(Camera camera, Rect rect)
{
// 创建一个RenderTexture对象
RenderTexture rt = new RenderTexture((int)rect.width, (int)rect.height, 0);
// 临时设置相关相机的targetTexture为rt, 并手动渲染相关相机
camera.targetTexture = rt;
camera.Render();
//ps: --- 如果这样加上第二个相机,可以实现只截图某几个指定的相机一起看到的图像。
//ps: camera2.targetTexture = rt;
//ps: camera2.Render();
//ps: -------------------------------------------------------------------
// 激活这个rt, 并从中中读取像素。
RenderTexture.active = rt;
Texture2D screenShot = new Texture2D((int)rect.width, (int)rect.height, TextureFormat.RGB24,false);
screenShot.ReadPixels(rect, 0, 0);// 注:这个时候,它是从RenderTexture.active中读取像素
screenShot.Apply();
// 重置相关参数,以使用camera继续在屏幕上显示
camera.targetTexture = null;
//ps: camera2.targetTexture = null;
RenderTexture.active = null; // JC: added to avoid errors
GameObject.Destroy(rt);
// 最后将这些纹理数据,成一个png图片文件
byte[] bytes = screenShot.EncodeToPNG();
string filename = Application.dataPath + "/Screenshot.png";
System.IO.File.WriteAllBytes(filename, bytes);
Debug.Log(string.Format("截屏了一张照片: {0}", filename));
return screenShot;
}
注释很详细