/**好记性不如烂笔头,将自己之前做的一些工作做一个简单总结**/
在立体视觉中只有当两个相机成像平面完全平行且行对准时,在立体匹配计算立体视差过程中是最简单的,为了使相机两成像平面完全平行且行对准,OpenCV提供了非标定和标定的方法来计算左右相机的校正矩阵。
一、非标定方法:
非标定方法也称为(Hartley)方法,有时候我们不知道相机的内参矩阵,而且也不用知道内参数具体是多少,因为我们仅关心如何得到两幅图像的稠密匹配,或者两幅图像之间的视差图或者深度图就足够了。因为不知道相机的内参数,所以只能借助对极约束来解决问题了,通过计算两幅图像的基础矩阵F,然后利用对极约束条件中对极线为平行且行对准,可以很好的实现目标。在opencv中接口函数为:cvStereoRectifyUncalibrated(),具体如下:
(摘自:http://blog.sina.com.cn/s/blog_4298002e01013yb8.html)
//! computes the rectification transformation for an uncalibrated stereo camera (zero distortion is assumed)
bool stereoRectifyUncalibrated( const Mat& points1, const Mat& points2,
const Mat& F, Size imgSize,
CV_OUT Mat& H1, CV_OUT Mat& H2,
double threshold=5 );
该函数输入参数为:两幅图像的匹配特征点,基本矩阵F以及图像的尺寸,返回的参数是两幅图像各自对应的单应变换矩阵H1和H2。只需要对两幅图像按照H1和H2做单应变换,即可得到矫正后图像。假设I为图像,变换如下:
需要说明一点,该函数的前两个参数Mat& points1, Mat& points2与cv::findFundamentalMat的前两个参数并不是相同的数据结构。它们虽然可以是同一个匹配点集,但是他们的数据结构是完全不同的!cv::findFundamentalMat中传入的匹配点集要求是2xN或者Nx2的矩阵,但是cv::stereoRectifyUncalibrated中要求传入的匹配点集必须是1x2N或者2Nx1的矩阵!在很多文档中都说他们的参数是一样的,这其实是一个天大的错误,如果用计算F的匹配点集直接传给图像矫正函数,程序将直接崩溃。正确的做法是利用cv::Mat的构造函数,直接从vector
cv::stereoRectifyUncalibrated函数默认原始图像是没有径向畸变的,因此在矫正图像之前,最好先对原始图像做径向矫正。另外需要注意的一点,函数返回的单应变换矩阵H1和H2都是double类型,也即CV_64F类型,若不是该类型的矩阵,与之相乘会报错。
// 假设前面我们已经得到两幅图像的匹配特征点,并计算出了基本矩阵F,同时得到了匹配特征点的inlier
// Mat m_matLeftImage;
// Mat m_matRightImage;
// vector m_LeftInlier;
// vector m_RightInlier;
// Mat m_Fundamental;
// 计算图像矫正的单应变换矩阵
Mat m_LeftH;
Mat m_RightH;
stereoRectifyUncalibrated(Mat(m_LeftInlier), Mat(m_RightInlier), m_Fundamental,
Size(m_matLeftImage.cols, m_matLeftImage.rows),
m_LeftH, m_RightH);
// 任意指定一个内参数矩阵K,不会影响计算结果,此处设为单位阵。
Mat K = Mat::eye(3, 3, CV_64F); // 注意一定是double类型
Mat invK = K.inv(DECOMP_SVD);
Mat LeftR = invK*m_LeftH*K; // 根据单应变换矩阵计算左图摄像机在空间中的变换矩阵R1
Mat RightR = invK*m_RightH*K; // 计算右图摄像机在空间中的变换矩阵R2
Mat LeftMap1, LeftMap2;
Mat RightMap1, RightMap2;
Mat Distort; // 径向畸变为0,设为空矩阵
Size UndistSize(m_matLeftImage.cols, m_matLeftImage.rows);
// 计算左右两幅图像的映射矩阵
initUndistortRectifyMap(K, Distort, LeftR, K, UndistSize, CV_32FC1, LeftMap1, LeftMap2);
initUndistortRectifyMap(K, Distort, RightR, K, UndistSize, CV_32FC1, RightMap1, RightMap2);
// 把原始图像投影到新图像上,得到矫正图像
Mat m_LeftRectyImage;
Mat m_RightRectyImage;
remap(m_matLeftImage, m_LeftRectyImage, LeftMap1, LeftMap2, INTER_LINEAR);
remap(m_matRightImage, m_RightRectyImage, RightMap1, RightMap2, INTER_LINEAR);
// 显示结果
cvNamedWindow( "left image", 1);
cvShowImage("left image", &(IplImage(m_LeftRectyImage)));
cvNamedWindow( "right image", 1);
cvShowImage("right image", &(IplImage(m_RightRectyImage)));
cvWaitKey( 0 );
cvDestroyWindow( "left image" );
cvDestroyWindow( "right image" );
二、标定方法:
标定方法也称为(Bouguet)方法,需要先分别对两个相机进行标定,分别得出两个相机的内参数矩阵,然后再进行立体标定,进行立体图像的矫正。在opencv中用cvStereoRectify()函数来计算相机矫正矩阵。简单实用如下:
/* 计算 3D 坐标点 */
vector> objRealPoint; //标定板上世界坐标系下3D点的坐标
calRealPoint(objRealPoint,boardSize,squareSize,goodFrame);
/* 双目标定 */
cv::Mat R, T, E, F; //两个相机平面之间的 旋转矩阵 平移矩阵 本征矩阵 基础矩阵
double rms = stereoCalibrate(objRealPoint, imagePointL, imagePointR, cameraMatrixL, distCoeffL, cameraMatrixR, distCoeffR, imageSize, R, T, E, F, CALIB_USE_INTRINSIC_GUESS,
TermCriteria(TermCriteria::COUNT + TermCriteria::EPS, 100, 1e-5));
std::cout << "Stereo Calibration RMSE is : " << rms << std::endl;
/*立体校正的时候需要两幅图像共面并且行对准,以使得立体匹配更方便
使的两幅图像共面的方法就是把两个相机平面投影到一个公共的成像平面上,这样每幅图像投影到公共平面
就需要一个旋转矩阵R, stereoRectify()这个函数计算的就是从图像平面投影到公共成像平面的的旋转矩阵Rl,Rr.
RlRr就是左右相机平面共面的校正旋转矩阵,左相机经过Rl旋转,右相机经过Rr旋转之后,两幅图像就已经共面了;
其中Pl Pr为两个相机的校正内参矩阵(3x4,最后一列为0),也可以称为相机坐标系到像素坐标系的投影矩阵,
Q 为像素坐标系与相机坐标系之间的重投影矩阵;
*/
Rect validROIL, validROIR;
cv::Mat Rl, Pl, Rr, Pr, Q;
stereoRectify(cameraMatrixL, distCoeffL, cameraMatrixR, distCoeffR, imageSize, R, T,
Rl, Rr, Pl, Pr, Q, CALIB_ZERO_DISPARITY, -1, imageSize, &validROIL, &validROIR);
/*根据stereoRectify 计算出来的R 和 P 来计算图像的映射表 mapx, mapy
mapx, mapy这两个映射表接下来可以给remap()函数调用,来校正图像,
使得两幅图像共面并且行对准*/
cv::Mat mapLx, mapLy, mapRx, mapRy;
initUndistortRectifyMap(cameraMatrixL, distCoeffL, Rl, Pl, imageSize, CV_32FC1, mapLx, mapLy);
initUndistortRectifyMap(cameraMatrixR, distCoeffR, Rr, Pr, imageSize, CV_32FC1, mapRx, mapRy);
Mat rectifyImageL, rectifyImageR;
cvtColor(imgGrayL, rectifyImageL, CV_GRAY2BGR);
cvtColor(imgGrayR, rectifyImageR, CV_GRAY2BGR);
DisplayScreen(rectifyImageL, rectifyImageR, validROIL, validROIR, false,"rectiftBefor");
/*经过remap之后,左右相机的图像已经共面并且行对准了*/
remap(rectifyImageL, rectifyImageL, mapLx, mapLy, INTER_LINEAR);
remap(rectifyImageR, rectifyImageR, mapRx, mapRy, INTER_LINEAR);
DisplayScreen(rectifyImageL,rectifyImageR,validROIL,validROIR,true);
PrintParem(R,T,Rl,Rr,Pl,Pr);
参考博客:
https://blog.csdn.net/laobai1015/article/details/54575839