视觉无人机跟踪车辆2019.4.29-5.6

之前做的工作是用YOLO3检测器(keras版本)检测车辆,加上deepsort跟踪,使用reid车辆数据集去跑的deepsort,效果很一般,因为检测就有点问题,所以检测这一块还是要自己训练数据集得到良好的模型,不然跟踪效果不好。

主要目的就是:判断车辆违章变道。

方案:
1.检测车辆yolov3,这里不管是用keras也好,darknet,tensorflow也好,训练都是离线下完成的,只需要在实际检测车辆时候吧前向网络写好,把模型load进去就可以得到车辆检测结果了。

2.检测车道线,想办法合成视频。

3.轧线判别模块,这里需要利用之前车辆检测得到的bbox的结果,也就是坐标和宽高信息,再结合车道线位置进行判决。

4.通过轧线的那辆车判断是哪一辆车。开始跟踪,提取该轧线车辆的特征,与后续帧,前面帧之间检测到的那辆车做特征匹配,判断是否是同一辆车。(即是否能把deepsort当中的目标检测后就开始跟踪改为轧线触发跟踪。这是一个难点)。

这里给个流程:一开始并不使用deepsort,先把未压线前几帧的检测到的车辆的图片用一个容器,这里使用一个滑动窗口存起来,同时deepsort当中的特征提取器提取出这些帧车辆的平均特征;如果始终未压线,则继续做之前的检测;一旦轧线条件触发,则开始调用deepsort跟踪后续帧的车辆,把轧线的帧的车辆作为基准,比对后几帧车辆是否是同一辆,并且和之前未压线时候的帧平均后的车辆特征进行关联,相当于做了两次deepsort,只不过这个轧线触发开关给后续的跟踪。另一个特征提取器负责轧线之前的车辆帧的特征提取,并和一旦轧线之后的那辆车的特征进行关联。

5.根据不同序列帧图片当中的车道线的位置确定下来,车辆在不同帧下位置是在车道线的左边还是右边,根据这个条件加上4中的同一辆车判断车辆是否违章变道。

你可能感兴趣的:(课题相关)