点击关注上方“AI深度视线”,并“星标”公号
技术硬文,第一时间送达!
在项目过程中,总遇到需要单目视觉给出目标测距信息的情况,其实单目相机本不适合测距,即使能给出,精度也有限,只能在有限制的条件下或者对精度要求很不高的情况下进行应用。该文结合SLAM方法,通过3D-2D解算相机位姿的方式给出一种另类的单目测距方法,行之有效。
要实现单目测距,那么相机参数是单目测距所必不可少的。相机参数有内参和外参之分:
相机内参:是与相机自身特性相关的参数,比如相机的焦距、像素大小等;
相机外参:是在世界坐标系中的参数,比如相机的位置、旋转方向等。
相机内参可以通过相机标定来得到,首先要对相机模型有一定了解。相机模型可以参考小孔成像原理:
蓝色箭头通过相机镜头小孔成像在图片上,这其中涉及4个坐标系的转换:
『world』——>『camera』
从世界坐标系到相机坐标系的,为刚体变换,反应了物体与相机的相对运动关系。
R为正交旋转矩阵,T为平移矩阵。共有6个自由度,三个轴的旋转角度(R)以及平移矩阵(T),这6个参数称为相机的外参(Extrinsic)
『camera』——>『image』
若将成像平面移动到,相机光心与物体之间
则从相机坐标系到图像坐标系的对应关系如下式所示:
从相机坐标系到图像坐标系的投影只和相机的焦距f有关,只有一个自由度f。
『image』——>『pixel』
令dx、dy分别表示感光sensor 上每个点在象平面x和y方向上的物理尺寸,其中:
从图像平面到像素平面的变换有 4个自由度。
『world』——>『pixel』
将上面几个过程合并,可得从世界坐标系到像素坐标系的转换关系。由下式可知,该相机模型中,内参有4个参数,外参有6个参数:
图像的畸变主要有两种:径向畸变和切向畸变。
正中心位置的畸变最小,随着半径的增大,畸变增大。径向畸变可以分为枕形畸变和桶形畸变:
径向畸变矫正公式如下(泰勒级数展开式前3项):
在透镜与成像平面不平行时就会产生,类似于透视变换:
切向畸变的矫正公式如下:
两种畸变最后都归结到五个参数:k1,k2,k3,p1,p2;知道这五个参数后即可完成畸变的矫正。
相机标定在OpenCV中已经做的很成熟了,只需要调用封装好的API就可以。接下来简要地说明一下流程:
利用findChessboardCorners()函数检测标定板角点,并利用find4QuadCornerSubpix()函数完成亚像素级校准
1、角点检测函数
bool findChessboardCorners(InputArray image,
Size patternSize,
OutputArray corners,
int flags=CALIB_CB_ADAPTIVE_THRESH+CALIB_CB_NORMALIZE_IMAGE
);
// image:传入拍摄的棋盘图Mat图像,必须是8位的灰度或者彩色图像
// patternSize:每个棋盘图上内角点的行列数,一般情况下,行列数不要相同,便于后续标定程序识别标定板的方向;
// corners:用于存储检测到的内角点图像坐标位置,一般用元素是Point2f的向量来表示:vector
image_points_buf; // flage:用于定义棋盘图上内角点查找的不同处理方式,有默认值。
2、提取亚像素角点信息
专门用来获取棋盘图上内角点的精确位置,降低相机标定偏差,还可以使用cornerSubPix函数
bool find4QuadCornerSubpix(InputArray img,
InputOutputArray corners,
Size region_size
);
// img:输入的Mat矩阵,最好是8位灰度图像,检测效率更高
// corners:初始的角点坐标向量,同时作为亚像素坐标位置的输出vector
iamgePointsBuf; // region_size:角点搜索窗口的尺寸
利用calibrateCamera()函数进行相机标定,得到内参矩阵和畸变系数
3、相机标定
double calibrateCamera( InputArrayOfArrays objectPoints,
InputArrayOfArrays imagePoints,
Size imageSize,
CV_OUT InputOutputArray cameraMatrix,
CV_OUT InputOutputArray distCoeffs,
OutputArrayOfArrays rvecs,
OutputArrayOfArrays tvecs,
int flags=0,
TermCriteria criteria = TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, DBL_EPSILON)
);
// objectPoints:世界坐标系中的三维点,三维坐标点的向量的向量vector
> object_points // imagePoints:每一个内角点对应的图像坐标点,vector
> image_points_seq形式 // imageSize:图像的像素尺寸大小(列数=cols,行数=rows)(宽度=width,高度=height)
// cameraMatrix:相机的3*3内参矩阵,Mat cameraMatrix=Mat(3,3,CV_32FC1,Scalar::all(0));
// distCoeffs:1*5畸变矩阵,Mat distCoeffs=Mat(1,5,CV_32FC1,Scalar::all(0))
// rvecs:旋转向量,输入一个Mat类型的vector,即vector
rvecs; // tvecs:位移向量,和rvecs一样,应该为vector
tvecs; // flags:标定时所采用的算法
// criteria:最优迭代终止条件设定
核心思想:通过SLAM中3D-2D相机位姿估计(PnP)来实现单目测距
PnP(Perspective-n-Point)描述了当知道n个3D空间点及其投影位置时,如何估计相机的位姿。对应到SLAM问题上,在初始化完成后,前一帧图像的特征点都已经被三角化,即已经知道了这些点的3D位置。那么新的帧到来后,通过图像匹配就可以得到与那些3D点相对应的2D点,再根据这些3D-2D的对应关系,利用PnP算法解出当前帧的相机位姿。
PnP问题有多种求解方法,包括P3P、直接线性变换(DLT)、EPnP(Efficient PnP)、UPnP等等,而且它们在OpenCV中都有提供。
问题是:我们在实际应用中,无法知道相机拍到的物体的3D空间点坐标?!
要解决这个问题,重点在于活用上面的思想,如果没有目标的3D空间点坐标,可以造一个出来,我们最后要的是相对距离,真实的世界坐标并不是一定需要的:
当单目视觉检测到前方物体时,该物体已经在图像上成像并且有bouding_box。设该物体的实际尺寸已知(提前测量),则以该物体的左上角为坐标系原点,建立虚拟世界坐标系。这样就有了目标的3D空间坐标,同时还有图像上的目标检测框,2D像素坐标也有了,剩下的工作就是调用下面的函数,直接获取相机的位姿,并提取平移矩阵T的两个分量,再经过简单操作就可以获得目标在相机坐标系下的水平和垂直方向的距离。
void solvePnP(InputArray objectPoints, InputArray imagePoints, InputArray cameraMatrix, InputArray distCoeffs, OutputArray rvec, OutputArray tvec, bool useExtrinsicGuess=false, int flags = CV_ITERATIVE)
Parameters:
objectPoints - 世界坐标系下的控制点的坐标,vector
的数据类型在这里可以使用 imagePoints - 在图像坐标系下对应的控制点的坐标。vector
在这里可以使用 cameraMatrix - 相机的内参矩阵
distCoeffs - 相机的畸变系数
以上两个参数通过相机标定可以得到。相机的内参数的标定参见:http://www.cnblogs.com/star91/p/6012425.html
rvec - 输出的旋转向量。使坐标点从世界坐标系旋转到相机坐标系
tvec - 输出的平移向量。使坐标点从世界坐标系平移到相机坐标系
flags - 默认使用CV_ITERATIV迭代法
下面给出一个求解单目测距的可调用类PnPDistance()的简单测试代码样例,如下所示:
# -*-coding:utf-8-*-
import cv2
import numpy as np
class PnPDistance():
def __init__(self, args):
self.category = args.classes_names
self.cam = np.array([1.5880436204354560e+03, 0., 960., 0., 1.5880436204354560e+03,
600., 0., 0., 1.], dtype=np.float64).reshape((3, 3))
self.distortion = np.array([-1.8580303062080919e-01, 5.7927645928450899e-01,
5.5271164249844681e-03, -1.2684978794253729e-04,
-5.6884229185639223e-01], dtype=np.float64).reshape((1, 5))
self.obj_true_size = [[180, 180], [250, 250], [170, 45], [100, 150], [250, 180],
[100, 150], [2000, 1000], [170, 45], [200, 100],
[110, 48], [110, 48], [110, 48], [110, 48],
[110, 48], [40, 105], [40, 105], [40, 105], [80, 30],
[80, 30], [80, 30], [80, 30], [80, 30], [80, 30], [80, 30], [80, 30], [80, 30], [70, 35], [45, 45]]
def get_distance(self, obj_dict):
"""
:param bbox: x,y,w,h
:param category: category
:return:
"""
# boxes = []
# categories = []
out_dist = []
out_dist_size = []
for keys, items in obj_dict.items():
left, top, right, bottom = items['bbox']
bbox = [left, top, right-left, bottom-top]
category = self.category.index(items['label'].split(' ')[0])
# boxes.append(bbox)
# categories.append(category)
obj_pw, obj_ph = self.obj_true_size[category]
if obj_pw < obj_ph:
obj_pw = obj_ph
else:
obj_ph = obj_pw
obj_p = np.array([(0, 0, 0),
(obj_pw, 0, 0),
(obj_pw, obj_ph, 0),
(0, obj_ph, 0)],
dtype=np.float64).reshape((1, 4, 3))
img_rect_w, img_rect_h = bbox[2], bbox[3]
if img_rect_w < img_rect_h:
img_rect_w = img_rect_h
else:
img_rect_h = img_rect_w
img_points = np.array([(bbox[0], bbox[1]),
(bbox[0] + img_rect_w, bbox[1]),
(bbox[0] + img_rect_w, bbox[1] + img_rect_h),
(bbox[0] + img_rect_w, bbox[1])],
dtype=np.float64).reshape((1, 4, 2))
ret_val, r_vec, t_vec = cv2.solvePnP(obj_p, img_points, self.cam, self.distortion,
useExtrinsicGuess=False,
flags=cv2.SOLVEPNP_AP3P)
out_dist.append([round(t_vec[0][0] / 100.0, 1), round(t_vec[2][0] / 100.0, 1)])
out_dist_size.append(self.obj_true_size[category])
return out_dist, out_dist_size
参考链接:
https://www.pianshen.com/article/5864313789/
https://blog.csdn.net/u011144848/article/details/90605108