深度图像转化为点云

        首先我们先知道什么是相机的焦距。摄影机或放映机的金属筒容纳了一组两边或一边有弧度(凸或凹)的透镜,组成一个综合镜头。从物体不同部分射出的光线,通过镜头之后,聚焦在底片的一个点上,使影像具有清晰的轮廓与真实的质感,这个点就叫焦点(focus)。所谓焦距(focal length),正是从镜头之镜片中间点到光线能清晰聚焦的那一点之间的距离 。
深度图像转化为点云_第1张图片
        现在我们看看深度图像是如何转换为点云的:
深度图像转化为点云_第2张图片

图1 :(左)以u,v坐标表示的图像平面。每个像素都有指定的颜色和深度。(右)笛卡尔坐标x,y,z中的3D视图。

        通过简单的几何关系 (“相似的三角形”) ,我们可以轻松地从每个像素的u和d得出位置x。下图仅显示了x和u,但对y和v可以完全相同。对于针孔相机模型,x和y方向的焦距相同。对于带镜头的相机这个结论可能就不一定成立了,我们将在以后的文章中对此进行讨论。
深度图像转化为点云_第3张图片

图2:显示xz平面的投影(顶视图)。左侧是针孔照相机,镜头前有一个物体(从上方是相同的蓝色球),并在屏幕上显示。世界坐标系与照相机对齐,因此z轴延伸到照相机所看的方向。在右侧,从左侧开始的两个部分重叠的三角形分开以更加清楚。

        从类似的三角方法中,我们立即获得:

        ​通常fₓ和fᵧ(焦距)是相同的。但是对于例如图像传感器的非矩形像素,镜头变形或图像的后处理,它们可能会有所不同。

        ​所以最终得出x,y,z矩阵为:
深度图像转化为点云_第4张图片

(x’=u,y’=v,D为深度值)

你可能感兴趣的:(点云,3d,计算机视觉)