本文处理的对象为摄像机采集到的视频流,所采用的语言为c++。双目测距的基本原理是相似三角形原理理,具体理论可以参考大佬博客。根据相似三角形原理,见图如下图所示。
假设虚线为镜头平面,左边为成像平面,右边为物体所在的平面,H为物体的长度,h为图像的像素长度,f为焦距。我们首先要确定出焦距的大小,我偷了个懒,我先测出来相机到物体之间的具体D,已知物体长度H,在opencv中测出物体长度h,我就解出了f。利用已知的f,我们就可以用图中的公式计算出相机到物体之间的距离D了。我所采用的算法步骤如下:
1.调用摄像头
2.预处理(灰度化-高斯滤波-阈值分割)
3.寻找轮廓
4.画出最小外接矩形
5.得出外接矩形的长宽
6.计算出D的大小并显示出来
写作水平十分拙劣,代码水平需要提高,哈哈哈,这次代码总体还算不错,最大误差在1-2mm之间。
#include
#include
#include
#include
#include
#include
#include
#include "opencv2/imgproc/imgproc.hpp"
#include "opencv2/highgui/highgui.hpp"
#include
#include "opencv2/imgproc/imgproc_c.h"
using namespace cv;
using namespace std;
//轮廓按照面积大小升序排序
bool ascendSort(vector<Point> a, vector<Point> b)
{
return a.size() < b.size();
}
//轮廓按照面积大小降序排序
bool descendSort(vector<Point> a, vector<Point> b) {
return a.size() > b.size();
}
static inline bool ContoursSortFun(vector<cv::Point> contour1, vector<cv::Point> contour2)
{
return (cv::contourArea(contour1) > cv::contourArea(contour2));
}
void main()
{
//从摄像头读入视频
VideoCapture capture(0);//打开摄像头
if (!capture.isOpened())//没有打开摄像头的话,就返回。
return;
Mat edges; //定义一个Mat变量,用于存储每一帧的图像
//循环显示每一帧
while (1)
{
Mat frame; //定义一个Mat变量,用于存储每一帧的图像
capture >> frame; //读取当前帧
imshow("Video0", frame);
if (frame.empty())
{
break;
}
else
{
//waitKey(2000);可以选择进行处理帧数的时间
cvtColor(frame, edges, CV_BGR2GRAY);//彩色转换成灰度
GaussianBlur(edges, edges, Size(3, 3), 0, 0);//模糊化
//Canny(edges, edges, 35, 125, 3);//边缘化
threshold(edges, edges, 220, 255, CV_THRESH_BINARY);
imshow("Video1", edges);
Mat mask = Mat::zeros(edges.size(), CV_8UC1);
vector<vector<Point>>contours;
vector<Vec4i>hierarchy;
findContours(edges, contours, hierarchy, RETR_LIST, CHAIN_APPROX_SIMPLE);//画出轮廓
vector<RotatedRect> rectangle(contours.size()); //最小外接矩形 ***最小外接矩形和最小正外接矩形还是不一样的***
Point2f rect[4];
float width = 0;//外接矩形的宽和高
float height = 0;
for (int i = 0; i < contours.size(); i++)
{
rectangle[i] = minAreaRect(Mat(contours[i]));
rectangle[i].points(rect); //最小外接矩形的4个端点
width = rectangle[i].size.width;
height = rectangle[i].size.height;
if (height >= width)
{
float x = 0;
x = height;
height = width;
width = x;
}
cout << "宽" << width << " " << "高" << height<< endl;
for (int j = 0; j < 4; j++)
{
cout << "0" << rect[j] << " " << "1" << rect[(j + 1) % 4 ]<< endl;
line(frame, rect[j], rect[(j + 1) % 4], Scalar(0, 0, 255), 1, 8);//绘制最小外接矩形的每条边
}
}
float D = (210 * 509.57) / width;
char tam[100];
sprintf(tam, "D=:%lf", D);
putText(frame, tam, Point(100, 100), FONT_HERSHEY_SIMPLEX, 1, cvScalar(255, 0, 255), 1, 8);
imshow("Video2", mask); //显示当前帧
imshow("Video3", frame);
}
waitKey(30); //延时30ms
}
capture.release();//释放资源
destroyAllWindows();//关闭所有窗口
}
这是我做实验的实物图:
测试所用的距离单位是mm,被测物体尽量与背景颜色有一定的差异,否则就有涉及到图形分割方面的知识,大家可以闲的时候测试下玩玩。奥利给,哈哈哈!!!