Table of Contents
1.特征的提取代码入口
2.计算图像金字塔的函数ComputePyramid分析
3.计算图像的关键点
4.计算图像的描述子
5.去畸变函数解析
6.计算图像边界
7.将图像提取的特征“较均匀”的分布在网格中
8.小结
这段时间学习ORB-SLAM2系统代码,对自己不太懂的地方主要借鉴了吴博的视频和PPT讲解以及其他一些人的介绍,自己再写笔记梳理一遍印象加深了好多,但是对算法中的一些细节还没有特别深入的掌握,需要反复阅读代码和相关论文介绍。
ORB特征提取是Tracking线程中首先要做的事情,只有从图像中提取了特征,才能对camera中传入的一帧一帧的图像按照特征值来进行跟踪,进而来估计相机的位姿。
特征由关键点和描述子组成,相关的解释在高博《视觉SLAM十四讲》中有介绍,不清楚的可以查看。下面主要看关键点和描述子的提取代码。特征提取的代码入口是当有一张图像传入,对该图像进行Frame对象初始化的时候。
ExtractORB代码如下:
/**
* ORB特征提取,该函数中调用重载的操作符函数
* 提取的关键点存放在mvKeys/mKeysRight中
* 根据关键点计算出的描述子存放在mDescriptors/mDescriptorsRight中
*/
void Frame::ExtractORB(int flag, const cv::Mat &im)
{
//flag==0为单目
if(flag==0)
(*mpORBextractorLeft)(im,cv::Mat(),mvKeys,mDescriptors);
else
(*mpORBextractorRight)(im,cv::Mat(),mvKeysRight,mDescriptorsRight);
}
ExtractORB函数中调用了重载的()操作符函数,该函数代码如下:
/**
* 重载了括号运算符,对输入的图像计算关键点和描述子
* 具体流程:
* 1.对于输入的图片,计算其图像金字塔;
* 2.提取图像金字塔中各层图像的关键点;
* 3.计算提取出的关键点对应的描述子;
* _image:获取的灰度图像
* _mask:掩码
* 传入引用参数 _keypoints, _descriptors 用于存储计算得到的特征点及其描述子
*/
void ORBextractor::operator()( InputArray _image, InputArray _mask, vector& _keypoints,
OutputArray _descriptors)
{
if(_image.empty())
return;
Mat image = _image.getMat();
//判断通道是否为灰度图
assert(image.type() == CV_8UC1 );
// Pre-compute the scale pyramid
//计算图像高斯金字塔
ComputePyramid(image);
//vector类型的allKeyPonts里每个元素又是一个类型为KeyPoint的vector
vector < vector > allKeypoints;
//对金字塔图像进行角点检测,提取图像金字塔中各层图像的关键点并储存在allKeypoints里
ComputeKeyPointsOctTree(allKeypoints);
//ComputeKeyPointsOld(allKeypoints);
Mat descriptors;
//算出实际提取出来的关键点数量nkeypoints
//新建descriptors对象,特征点的描述子将存在这里
//descriptors就好似nkeypoints*32维的矩阵,矩阵里存着一个uchar,其单位为8bit
//这样对于每个关键点,就对应有32*8=256bit的二进制向量作为描述子
int nkeypoints = 0;
for (int level = 0; level < nlevels; ++level)
nkeypoints += (int)allKeypoints[level].size();
if( nkeypoints == 0 )
_descriptors.release();
else
{
//为_descriptors分配空间
_descriptors.create(nkeypoints, 32, CV_8U);
descriptors = _descriptors.getMat();
}
_keypoints.clear();
_keypoints.reserve(nkeypoints);
int offset = 0;
//遍历高斯金字塔每层,计算其提取出的关键点的描述子储存在descriptors里
for (int level = 0; level < nlevels; ++level)
{
vector& keypoints = allKeypoints[level];
int nkeypointsLevel = (int)keypoints.size();
if(nkeypointsLevel==0)
continue;
// preprocess the resized image
//获取金字塔中level层的图像
Mat workingMat = mvImagePyramid[level].clone();
//使用高斯模糊
GaussianBlur(workingMat, workingMat, Size(7, 7), 2, 2, BORDER_REFLECT_101);
// Compute the descriptors
//计算描述子,其计算所需的点对分布采用的是高斯分布,储存在pattern里
Mat desc = descriptors.rowRange(offset, offset + nkeypointsLevel);
//计算所得描述子存放在desc中
computeDescriptors(workingMat, keypoints, desc, pattern);
//修改offset的值
offset += nkeypointsLevel;
// Scale keypoint coordinates
// 对关键点的位置做尺度恢复,恢复到原图的位置
if (level != 0)
{
//mvScaleFactor值为:1 1*1.2 1.2^2 1.2^3 1.2^4 1.2^5 1.2^6 1.2^7
float scale = mvScaleFactor[level]; //getScale(level, firstLevel, scaleFactor);
for (vector::iterator keypoint = keypoints.begin(),
keypointEnd = keypoints.end(); keypoint != keypointEnd; ++keypoint)
//将关键点的坐标恢复到原始图像中的位置上
keypoint->pt *= scale;
}
// And add the keypoints to the output
//将恢复完坐标的关键点插入到_keypoints中,所有金字塔层遍历完后,_keypoints中就存储了所有的图像关键点
_keypoints.insert(_keypoints.end(), keypoints.begin(), keypoints.end());
}
}
/**
* 建立图像金字塔
* 将原始图像一级级缩小并依次存在mvImagePyramid里
*
*/
void ORBextractor::ComputePyramid(cv::Mat image)
{
// 计算n个level尺度的图片
for (int level = 0; level < nlevels; ++level)
{
//获取缩放尺度,mvInvScaleFactor的值为1 1/1.2 1/1.2^2 1/1.2^3 1/1.2^4 1/1.2^5 1/1.2^6 1/1.2^7
float scale = mvInvScaleFactor[level];
//计算当前层图片尺寸
Size sz(cvRound((float)image.cols*scale), cvRound((float)image.rows*scale));
//裁剪前的图片加上边框
Size wholeSize(sz.width + EDGE_THRESHOLD*2, sz.height + EDGE_THRESHOLD*2);
//新建一个temp,大小为wholeSize
Mat temp(wholeSize, image.type()), masktemp;
//从temp中裁剪(起点为EDGE_THRESHOLD, EDGE_THRESHOLD,大小为sz.width,
//sz.height)存入mvImagePyramid[level]中,这里就将level层的图片裁剪存入完成了
mvImagePyramid[level] = temp(Rect(EDGE_THRESHOLD, EDGE_THRESHOLD, sz.width, sz.height));
// Compute the resized image
if( level != 0 )
{
//从上一级图像mvImagePyramid[level-1]中缩小图像至sz大小,并存入mvImagePyramid[level]
resize(mvImagePyramid[level-1], mvImagePyramid[level], sz, 0, 0, INTER_LINEAR);
/**
* level!=0时调用调用copyMakeBorder毫无意义啊,上边的resize函数已经完成了此功能
*/
copyMakeBorder(mvImagePyramid[level], temp, EDGE_THRESHOLD, EDGE_THRESHOLD, EDGE_THRESHOLD, EDGE_THRESHOLD,
BORDER_REFLECT_101+BORDER_ISOLATED);
}
else
{
//将图片image上下左右边界扩充EDGE_THRESHOLD个像素,放入temp中,temp为输出
/**
* 函数原型:
* void copyMakeBorder( const Mat& src, Mat& dst,
* int top, int bottom, int left, int right,
* int borderType, const Scalar& value=Scalar())
*/
copyMakeBorder(image, temp, EDGE_THRESHOLD, EDGE_THRESHOLD, EDGE_THRESHOLD, EDGE_THRESHOLD,
BORDER_REFLECT_101);
//BORDER_REFLECT_101:以最边缘像素为轴,进行对称填充
//相关学习:https://blog.csdn.net/guyuealian/article/details/78113325
}
}
/**
* 总结:
* 1.先用resize()将图片缩放至sz大小,放入 mvImagePyramid[i];
* 2.接着用copyMakeBorder()扩展边界至wholeSize大小放入temp;
* 3.注意temp和mvImagePyramid[i]公用相同数据区,改变temp会改变mvImagePyramid[i]。
*/
}
/**
* 功能:提取图像金字塔中各层图像的关键点并储存在allKeypoints里
* 算法具体步骤描述:
* 1.先是计算提取关键点的边界,太边缘的地方放弃提取关键点;
* 2.将图像分割为W*W的小图片,遍历这些分割出来的小图片并提取其关键点;
* 3.将提取的关键点交给DistributeOctTree()利用四叉树以及非极大值抑制算法进行筛选;
* 4.计算关键点的相关信息:像素位置,patch尺度,方向,所在高斯金字塔层数;
* 注意:在分割图片的时候,小窗之间是有重叠的
*/
void ORBextractor::ComputeKeyPointsOctTree(vector >& allKeypoints)
{
allKeypoints.resize(nlevels);
//暂定的分割窗口的大小
const float W = 30;
//对高斯金字塔mvImagePyramid中每层图像提取orb关键点
for (int level = 0; level < nlevels; ++level)
{
//计算边界,在这个边界范围内计算FAST关键点
const int minBorderX = EDGE_THRESHOLD-3;
const int minBorderY = minBorderX;
const int maxBorderX = mvImagePyramid[level].cols-EDGE_THRESHOLD+3;
const int maxBorderY = mvImagePyramid[level].rows-EDGE_THRESHOLD+3;
//用这个存储待筛选的orb关键点
vector vToDistributeKeys;
//reserve()用来保留(扩充)容量,他并不改变容器的有限元素个数;
//这里nfeatures=4000
vToDistributeKeys.reserve(nfeatures*10);
//计算图像宽度和高度
const float width = (maxBorderX-minBorderX);
const float height = (maxBorderY-minBorderY);
//将图像划分为W*W=30*30的小窗口,计算行列各有多少个
const int nCols = width/W;//列数
const int nRows = height/W;//行数
//实际每个小窗口的宽高 宽:wCell 高:hCell
const int wCell = ceil(width/nCols);
const int hCell = ceil(height/nRows);
//按行进行遍历,使用两个for循环遍历每个窗口,首先先计算窗口的四个坐标
for(int i=0; i=maxBorderY-3)
continue;
//窗口的行下坐标超出边界,则将窗口的行下坐标设置为边界
if(maxY>maxBorderY)
maxY = maxBorderY;
//遍历每一列
for(int j=0; j=maxBorderX-6)
continue;
if(maxX>maxBorderX)
maxX = maxBorderX;
//每个小窗里的关键点KeyPoint将存在这里
vector vKeysCell;
/**
* 提取FAST角点放入vKeysCell中
* 输入参数:
* mvImagePyramid[level].rowRange(iniY,maxY).colRange(iniX,maxX) level层的图片中在行范围(iniY,maxY),列范围(iniX,maxX)的取件进行角点提取
* vKeysCell 储存提取的fast关键点
* iniThFAST 提取角点的阈值 这里为20,提取不到的时候改为用minThFAST来提取,值为7
* true 是否开启非极大值抑制算法
*
*/
FAST(mvImagePyramid[level].rowRange(iniY,maxY).colRange(iniX,maxX),
vKeysCell,iniThFAST,true);
// 如果没有找到FAST关键点,就降低阈值重新计算FAST,minThFAST=7
if(vKeysCell.empty())
{
FAST(mvImagePyramid[level].rowRange(iniY,maxY).colRange(iniX,maxX),
vKeysCell,minThFAST,true);
}
//如果找到的点不为空,就加入到vToDistributeKeys
if(!vKeysCell.empty())
{
for(vector::iterator vit=vKeysCell.begin(); vit!=vKeysCell.end();vit++)
{
//pt是关键点的坐标。这里是计算关键点在该层图片中的实际坐标值
(*vit).pt.x+=j*wCell;
(*vit).pt.y+=i*hCell;
vToDistributeKeys.push_back(*vit);
}
}
}
}
//经DistributeOctTree筛选后的关键点存储在这里
vector & keypoints = allKeypoints[level];
keypoints.reserve(nfeatures);
//筛选vToDistributeKeys中的关键点存入keypoints中,mnFeaturesPerLevel中存放每层图中的特征点数
//对获取的特征点进行过滤,只选择反应比较大的关键点
keypoints = DistributeOctTree(vToDistributeKeys, minBorderX, maxBorderX,
minBorderY, maxBorderY,mnFeaturesPerLevel[level], level);
/**
* 计算在本层提取出的关键点对应的Patch大小,称为scaledPatchSize
* 你想想,本层的图像是缩小的,而你在本层提取的orb特征点,计算orb的方向,描述子的时候根据
* 的PATCH大小依旧是PATCH_SIZE。
* 而你在本层提取的orb是要恢复到原始图像上去的,所以其特征点的size(代表特征点的尺度信息)需要放大。
*/
const int scaledPatchSize = PATCH_SIZE*mvScaleFactor[level];
// Add border to coordinates and scale information
const int nkps = keypoints.size();
for(int i=0; i ORBextractor::DistributeOctTree(const vector& vToDistributeKeys, const int &minX,
const int &maxX, const int &minY, const int &maxY, const int &N, const int &level)
{
// Compute how many initial nodes
/**
* 常用的相机kinect v1的分辨率是:640*480 kinect v2的分辨率是:1920*1080
* 为了尽量使得每一个结点的区域形状接近正方形所以图像的长宽比决定了四叉树根节点的数目
* 如果使用kinect v1那么只有一个根结点,如果使用kinect v2那么就会有两个根结点
* */
//计算根节点数量
const int nIni = round(static_cast(maxX-minX)/(maxY-minY));
//计算根节点的X范围,其Y轴范围就是(maxY-minY).hX可以理解为一个根节点所占的宽度
const float hX = static_cast(maxX-minX)/nIni;
//新建一个双向链表,用来存储生成的树结点,其实后面大部分操作就是改变这个
list lNodes;
//vpIniNodes变量中存储的是结点的地址,vpIniNodes在将vToDistributeKeys分配到父节点中时起索引作用
vector vpIniNodes;
//vpIniNodes的大小先设置成根结点的个数
vpIniNodes.resize(nIni);
//遍历每个根节点,计算根节点领域的四个点UL,UR,BL,BR并其存入lNodes和vpIniNodes
for(int i=0; i(i),0);
ni.UR = cv::Point2i(hX*static_cast(i+1),0);
ni.BL = cv::Point2i(ni.UL.x,maxY-minY);
ni.BR = cv::Point2i(ni.UR.x,maxY-minY);
//vKeys的大小为在上面的这个根节点范围内总共提取的特征点的个数
ni.vKeys.reserve(vToDistributeKeys.size());
//将创建的根节点插入到list lNodes中
lNodes.push_back(ni);
/**
* 将lNodes变量中的最后存储的那个结点的地址存储到vector变量vpIniNodes中,暂时还不知道这个变量做何用
* vpIniNodes总是把最后插入到lNodes中的结点的地址拿走,然后要为该结点的vKeys成员变量内部添加属于该结点的特征点。
* */
vpIniNodes[i] = &lNodes.back();
}
//Associate points to childs
//将vToDistributeKeys按照位置分配在根节点中
//要一直记得vToDistributeKeys变量中存储的是该层图像中提取的特征点
//遍历在该层图像上提取的所有特征点
for(size_t i=0;ivKeys.push_back(kp);
}
list::iterator lit = lNodes.begin();
/**
* 现在lNodes中只放有根节点,变量根节点,如果根节点中关键点个数为1
* 那么将这个节点的bNoMore设置为true,表示这个节点不能再分裂了。
* 如果为空,那么就删除这个节点
*
*/
while(lit!=lNodes.end())
{
//如果判断在一个结点里面只有一个特征点
if(lit->vKeys.size()==1)
{
//将该结点的bNoMore属性设置为true,表示不再对这个结点进行分割
lit->bNoMore=true;
lit++;
}
//如果判断这个结点中没有被分配到任何的特征点那么就将这个结点删除
else if(lit->vKeys.empty())
lit = lNodes.erase(lit);
else
lit++;
}
/**
* lNodes中的结点和 vpIniNodes中的结点指针是同步的,只有在 vpIniNodes中存储的结点中存储了
* 特征点,才能根据特征点的数目来决定如何处理这个结点
* 那如果在lNodes中删除一个没有特征点的结点,那么在 vpIniNodes中对应的这个地址也会被销毁吗?
*/
//后面大循环结束标志位
bool bFinish = false;
int iteration = 0;
vector > vSizeAndPointerToNode;
vSizeAndPointerToNode.reserve(lNodes.size()*4);
//现在lNodes里只有根节点,且每个节点的关键点数量都不为0
while(!bFinish)
{
iteration++;
int prevSize = lNodes.size();
lit = lNodes.begin();
//待分裂的节点数nToExpand
int nToExpand = 0;
vSizeAndPointerToNode.clear();
//遍历双向链表lNodes中的节点
while(lit!=lNodes.end())
{
if(lit->bNoMore)
{
// If node only contains one point do not subdivide and continue
//如果此节点包含的关键点数量为一,那么就不分裂
lit++;
continue;
}
else
{
// If more than one point, subdivide
//如果此节点关键点数量大于1,那么就分裂此节点,将此节点中的关键点通过DivideNode分配到n1,n2,n3,n4中
//并且将此被分裂的节点删除
ExtractorNode n1,n2,n3,n4;
lit->DivideNode(n1,n2,n3,n4);
// Add childs if they contain points
//如果节点n1的关键点数量大于0,将其插入lNodes的头部
//如果节点n1的关键点数量大于1,将其插入vSizeAndPointerToNode中表示待分裂,并且接下来待分裂的节点个数做+1操作
//后面n2,n3,n4以此类推
if(n1.vKeys.size()>0)
{
lNodes.push_front(n1);
if(n1.vKeys.size()>1)
{
nToExpand++;
//变量vSizeAndPointerToNode中存储的是每一个结点的地址以及该结点中被分配到的特征点的个数。
vSizeAndPointerToNode.push_back(make_pair(n1.vKeys.size(),&lNodes.front()));
//每插入一个结点就要更新list的开始结点的位置
lNodes.front().lit = lNodes.begin();
}
}
if(n2.vKeys.size()>0)
{
lNodes.push_front(n2);
if(n2.vKeys.size()>1)
{
nToExpand++;
vSizeAndPointerToNode.push_back(make_pair(n2.vKeys.size(),&lNodes.front()));
lNodes.front().lit = lNodes.begin();
}
}
if(n3.vKeys.size()>0)
{
lNodes.push_front(n3);
if(n3.vKeys.size()>1)
{
nToExpand++;
vSizeAndPointerToNode.push_back(make_pair(n3.vKeys.size(),&lNodes.front()));
lNodes.front().lit = lNodes.begin();
}
}
if(n4.vKeys.size()>0)
{
lNodes.push_front(n4);
if(n4.vKeys.size()>1)
{
nToExpand++;
vSizeAndPointerToNode.push_back(make_pair(n4.vKeys.size(),&lNodes.front()));
lNodes.front().lit = lNodes.begin();
}
}
lit=lNodes.erase(lit);
continue;
}
}
// Finish if there are more nodes than required features
// or all nodes contain just one point
//当创建的结点的数目比要求的特征点还要多,或者每个结点中都只有一个特征点的时候就停止分割
if((int)lNodes.size()>=N || (int)lNodes.size()==prevSize)
{
bFinish = true;
}
/**
* 待分裂的节点数vSizeAndPointerToNode分裂后,一般会增加nToExpand*3,如果增加nToExpand*3后大于N,则进入此分支。
* 如果现在生成的结点全部进行分割后生成的结点满足大于需求的特征点的数目,但是不继续分割又不能满足大于N的要求时。
* 这里为什么是乘以3,这里也正好印证了上面所说的当一个结点被分割成四个新的结点时,
* 这个结点是要被删除的,其实总的结点是增加了3个。
*
*/
else if(((int)lNodes.size()+nToExpand*3)>N)
{
while(!bFinish)
{
prevSize = lNodes.size();
//这里将已经创建好的结点放到一个新的容器中
vector > vPrevSizeAndPointerToNode = vSizeAndPointerToNode;
vSizeAndPointerToNode.clear();
//根据vPrevSizeAndPointerToNode.first大小来排序,也就是根据待分裂节点的关键点数量大小来有小到大排序。
//vPrevSizeAndPointerToNode.second为节点
/**
* 根据结点中被分配到的特征点的数目对结点进行排序,
* 这里为何要排序,我们想要的结果是想让尽可能多的特征点均匀的分布在图像上
* 如果前面的特征分布相对均匀的结点中的特征点数目已经达到了指标那么就可以将
* 后面那些分布密集的特征点去掉了。
*/
sort(vPrevSizeAndPointerToNode.begin(),vPrevSizeAndPointerToNode.end());
//倒序遍历vPrevSizeAndPointerToNode,就是先分裂待分裂节点的关键点数量大的
for(int j=vPrevSizeAndPointerToNode.size()-1;j>=0;j--)
{
ExtractorNode n1,n2,n3,n4;
//second其实就是pair中第二个元素,也就是节点
vPrevSizeAndPointerToNode[j].second->DivideNode(n1,n2,n3,n4);
// Add childs if they contain points
if(n1.vKeys.size()>0)
{
lNodes.push_front(n1);
if(n1.vKeys.size()>1)
{
vSizeAndPointerToNode.push_back(make_pair(n1.vKeys.size(),&lNodes.front()));
lNodes.front().lit = lNodes.begin();
}
}
if(n2.vKeys.size()>0)
{
lNodes.push_front(n2);
if(n2.vKeys.size()>1)
{
vSizeAndPointerToNode.push_back(make_pair(n2.vKeys.size(),&lNodes.front()));
lNodes.front().lit = lNodes.begin();
}
}
if(n3.vKeys.size()>0)
{
lNodes.push_front(n3);
if(n3.vKeys.size()>1)
{
vSizeAndPointerToNode.push_back(make_pair(n3.vKeys.size(),&lNodes.front()));
lNodes.front().lit = lNodes.begin();
}
}
if(n4.vKeys.size()>0)
{
lNodes.push_front(n4);
if(n4.vKeys.size()>1)
{
vSizeAndPointerToNode.push_back(make_pair(n4.vKeys.size(),&lNodes.front()));
lNodes.front().lit = lNodes.begin();
}
}
//删除被分裂的节点
lNodes.erase(vPrevSizeAndPointerToNode[j].second->lit);
//如果所有的结点还没有被分割完就已经达到了大于N的要求那么就直接跳出循环
if((int)lNodes.size()>=N)
break;
}
if((int)lNodes.size()>=N || (int)lNodes.size()==prevSize)
bFinish = true;
}
}
}
// Retain the best point in each node
//取出每个节点中响应最大的特征点
vector vResultKeys;
vResultKeys.reserve(nfeatures);
//遍历创建的所有结点
for(list::iterator lit=lNodes.begin(); lit!=lNodes.end(); lit++)
{
//获取每个结点下的特征点
vector &vNodeKeys = lit->vKeys;
cv::KeyPoint* pKP = &vNodeKeys[0];
float maxResponse = pKP->response;
//在每个结点中找到那个最强壮的特征点进行保存
for(size_t k=1;kmaxResponse)
{
pKP = &vNodeKeys[k];
maxResponse = vNodeKeys[k].response;
}
}
//只将每个结点下最强壮的的特征点保存
vResultKeys.push_back(*pKP);
}
return vResultKeys;
}
/**
* 一个节点分割成4个子节点
*
*/
void ExtractorNode::DivideNode(ExtractorNode &n1, ExtractorNode &n2, ExtractorNode &n3, ExtractorNode &n4)
{
const int halfX = ceil(static_cast(UR.x-UL.x)/2);
const int halfY = ceil(static_cast(BR.y-UL.y)/2);
//Define boundaries of childs
n1.UL = UL;
n1.UR = cv::Point2i(UL.x+halfX,UL.y);
n1.BL = cv::Point2i(UL.x,UL.y+halfY);
n1.BR = cv::Point2i(UL.x+halfX,UL.y+halfY);
n1.vKeys.reserve(vKeys.size());
n2.UL = n1.UR;
n2.UR = UR;
n2.BL = n1.BR;
n2.BR = cv::Point2i(UR.x,UL.y+halfY);
n2.vKeys.reserve(vKeys.size());
n3.UL = n1.BL;
n3.UR = n1.BR;
n3.BL = BL;
n3.BR = cv::Point2i(n1.BR.x,BL.y);
n3.vKeys.reserve(vKeys.size());
n4.UL = n3.UR;
n4.UR = n2.BR;
n4.BL = n3.BR;
n4.BR = BR;
n4.vKeys.reserve(vKeys.size());
//Associate points to childs
//根据特征点的坐标来将特征点分配到不同的新结点区域
for(size_t i=0;i& keypoints, const vector& umax)
{
//遍历关键点
for (vector::iterator keypoint = keypoints.begin(),
keypointEnd = keypoints.end(); keypoint != keypointEnd; ++keypoint)
{
keypoint->angle = IC_Angle(image, keypoint->pt, umax);
}
}
/**
* image 为某个金字塔层的图像
* pt 为该图中一个关键点
* u_max 为之前计算出来的一个数组长度为16的数值
* umax[16]中所有数据,依次是:15 15 15 15 14 14 14 13 13 12 11 10 9 8 6 3
* 对照着高博的《视觉SLAM十四讲》中的第七讲理解方向的计算,但说实话这块代码我还是没有完全理解,还需要继续理解
*/
static float IC_Angle(const Mat& image, Point2f pt, const vector & u_max)
{
int m_01 = 0, m_10 = 0;
//opencv3中图形存储基本为Mat格式,如果我们想获取像素点的灰度值或者RGB值,可以通过image.at(i,j)的方式轻松获取。
const uchar* center = &image.at (cvRound(pt.y), cvRound(pt.x));
// Treat the center line differently, v=0
//u从-15到15之间
for (int u = -HALF_PATCH_SIZE; u <= HALF_PATCH_SIZE; ++u)
m_10 += u * center[u];
// Go line by line in the circuI853lar patch
int step = (int)image.step1();
for (int v = 1; v <= HALF_PATCH_SIZE; ++v)
{
// Proceed over the two lines
int v_sum = 0;
int d = u_max[v];
for (int u = -d; u <= d; ++u)
{
int val_plus = center[u + v*step], val_minus = center[u - v*step];
v_sum += (val_plus - val_minus);
m_10 += u * (val_plus + val_minus);
}
m_01 += v * v_sum;
}
//返回计算的角度
return fastAtan2((float)m_01, (float)m_10);
}
/**
* image 图像金字塔中每一层里的图像
* keypoints 图像金字塔中每一层图像里的关键点
* descriptors 出参,需要计算的描述子
* pattern 计算描述子需要的模式
*
*/
static void computeDescriptors(const Mat& image, vector& keypoints, Mat& descriptors,
const vector& pattern)
{
//Mat::zeros第一个参数是行数,第二个列数,第三个类型
descriptors = Mat::zeros((int)keypoints.size(), 32, CV_8UC1);
for (size_t i = 0; i < keypoints.size(); i++)
//descriptors.ptr((int)i)用于获取descriptors的第i行
computeOrbDescriptor(keypoints[i], image, &pattern[0], descriptors.ptr((int)i));
}
//弧度制和角度制之间的转换
const float factorPI = (float)(CV_PI/180.f);
//针对每一个关键点计算ORB描述子
static void computeOrbDescriptor(const KeyPoint& kpt,
const Mat& img, const Point* pattern,
uchar* desc)
{
//获取关键点的弧度表示下的角度值
float angle = (float)kpt.angle*factorPI;
//考虑关键点的方向
float a = (float)cos(angle), b = (float)sin(angle);
const uchar* center = &img.at(cvRound(kpt.pt.y), cvRound(kpt.pt.x));
const int step = (int)img.step;
//注意这里在pattern里找点的时候,是利用关键点的方向信息进行了旋转矫正的
#define GET_VALUE(idx) \
center[cvRound(pattern[idx].x*b + pattern[idx].y*a)*step + \
cvRound(pattern[idx].x*a - pattern[idx].y*b)]
for (int i = 0; i < 32; ++i, pattern += 16)
{
int t0, t1, val;
t0 = GET_VALUE(0); t1 = GET_VALUE(1);
val = t0 < t1;
t0 = GET_VALUE(2); t1 = GET_VALUE(3);
val |= (t0 < t1) << 1;
t0 = GET_VALUE(4); t1 = GET_VALUE(5);
val |= (t0 < t1) << 2;
t0 = GET_VALUE(6); t1 = GET_VALUE(7);
val |= (t0 < t1) << 3;
t0 = GET_VALUE(8); t1 = GET_VALUE(9);
val |= (t0 < t1) << 4;
t0 = GET_VALUE(10); t1 = GET_VALUE(11);
val |= (t0 < t1) << 5;
t0 = GET_VALUE(12); t1 = GET_VALUE(13);
val |= (t0 < t1) << 6;
t0 = GET_VALUE(14); t1 = GET_VALUE(15);
val |= (t0 < t1) << 7;
desc[i] = (uchar)val;
}
#undef GET_VALUE
}
畸变的相关介绍可以参考高博《视觉SLAM十四讲》中第五讲的相关介绍。这里要说的是,在mono_kitti数据集中其实没有畸变的情况,所以配置文件中的去畸变参数k1 k2 k3 p1 p2都为0,代码中判断这些值非0的情况下才执行去畸变操作。
/**
* 关键点去畸变
*/
void Frame::UndistortKeyPoints()
{
//mDistCoef中存放的是图像去畸变的参数k1 k2 k3 p1 p2
if(mDistCoef.at(0)==0.0)
{
mvKeysUn=mvKeys;
return;
}
// Fill matrix with points
//创建了个N×2的矩阵
cv::Mat mat(N,2,CV_32F);
//将关键点的图像坐标存储在mat中
for(int i=0; i(i,0)=mvKeys[i].pt.x;
mat.at(i,1)=mvKeys[i].pt.y;
}
// Undistort points
//mat通道数设置为2
mat=mat.reshape(2);
/**
* void undistortPoints(InputArray src,
* OutputArray dst,
* InputArray cameraMatrix, mK 中存放相机内参
* InputArray distCoeffs, mDistCoef 中存放去畸变参数
* InputArray R = noArray(),
* InputArray P = noArray())
* 调用该函数去畸变后出参为mat
* */
cv::undistortPoints(mat,mat,mK,mDistCoef,cv::Mat(),mK);
//mat通道数设置为1
mat=mat.reshape(1);
// Fill undistorted keypoint vector
//mvKeyUn中将存放的是去畸变后的关键点
mvKeysUn.resize(N);
for(int i=0; i(i,0);
kp.pt.y=mat.at(i,1);
mvKeysUn[i]=kp;
}
}
代码中只对第一帧图像进行了图像边界的计算,其余帧都是使用第一帧计算的结果值。
/**
* 计算图像边界
*
*/
void Frame::ComputeImageBounds(const cv::Mat &imLeft)
{
//对去畸变的参数进行判断,!=0说明图像有畸变
if(mDistCoef.at(0)!=0.0)
{
//创建4*2的矩阵
/**
* | 0.0 0.0 |
* | cols 0.0 |
* | 0.0 rows |
* | cols rows |
* 其中cols为imLeft的列数,rows为imLeft的行数。其实这个矩阵的4个点对也就是图像的4个边角点坐标
* */
//通过mat类型,转成4个点对即图像的4个边角点,进行畸变计算
cv::Mat mat(4,2,CV_32F);
mat.at(0,0)=0.0; mat.at(0,1)=0.0;
mat.at(1,0)=imLeft.cols; mat.at(1,1)=0.0;
mat.at(2,0)=0.0; mat.at(2,1)=imLeft.rows;
mat.at(3,0)=imLeft.cols; mat.at(3,1)=imLeft.rows;
// Undistort corners
//mat的通道数变为2
mat=mat.reshape(2);
//对4个角的坐标点进行去畸变
/**
* void undistortPoints(InputArray src,
* OutputArray dst,
* InputArray cameraMatrix, mK 中存放相机内参
* InputArray distCoeffs, mDistCoef 中存放去畸变参数
* InputArray R = noArray(),
* InputArray P = noArray())
* 调用该函数去畸变后出参为mat
* */
cv::undistortPoints(mat,mat,mK,mDistCoef,cv::Mat(),mK);
mat=mat.reshape(1);
/**
* mat去畸变后,从4个角的坐标点中计算出x、y的最大值和最小值
* mnMinX是从图像的左上角点和左下角点中取出x坐标最小的点的值
* mnMaxX是从图像的右上角点和右下角点中取出x坐标最大的点的值
* mnMinY是从图像的左上角点和左下角点中取出Y坐标最小的点的值
* mnMaxY是从图像的右上角点和右下角点中取出Y坐标最大的点的值
* */
mnMinX = min(mat.at(0,0),mat.at(2,0));
mnMaxX = max(mat.at(1,0),mat.at(3,0));
mnMinY = min(mat.at(0,1),mat.at(1,1));
mnMaxY = max(mat.at(2,1),mat.at(3,1));
}
else
{
//图像没畸变的情况下,取默认值
mnMinX = 0.0f;
mnMaxX = imLeft.cols;
mnMinY = 0.0f;
mnMaxY = imLeft.rows;
}
}
/**
* 把每一帧分割成48x64个网格,根据关键点的畸变矫正后的位置分在不同的网格里面.
*
*/
void Frame::AssignFeaturesToGrid()
{
//关键点的一半分布在64*48的小格子里,计算出每个网格中可以放多少个。这里为什么要乘以0.5,我还没有搞明白
int nReserve = 0.5f*N/(FRAME_GRID_COLS*FRAME_GRID_ROWS);
for(unsigned int i=0; i=FRAME_GRID_COLS || posY<0 || posY>=FRAME_GRID_ROWS)
return false;
return true;
}
至此,图像的特征值都提取到了,并且也对特征值进行了去畸变的处理。
本篇笔记中的部分在Tracking线程中位置如下图所示: