来吹一波siamMask(神经网络Mask追踪,Ubuntu+Conda+PyTorch)

最近写了个手持物体追踪的专利,深刻感受到mask轮廓在追踪中起到的作用,无巧不巧,CVPR2019出了一篇融合分割功能的追踪框架的文章,并且开源了代码,所以跑了一下代码,觉得又一标注利器到手,2333

先来看看效果(可以对比之前GoTurn的文章,完全吊打)

dlib追踪测试(这个倒还简单)实测GTX1060 33fps...

行人追踪效果(虽然丢了不少,但请去看看GoTurn的效果)

 

===========原理==============

融合了视频分割的框架进行追踪,详细的可以看论文

只需要在第一帧给出物体的bounding box,之后会对物体进行追踪并持续分割物体

============环境配置===========

下面就是你们要的环境配置

windows流程一样,之前配置过程中忘记make.sh错以为需要调用dll,感谢万能的评论)

然后是Ubuntu的配置流程:

首先亮Git,英文阅读能力强的朋友可以直接按照官方的教程进行配置,不排除代码之后有所改动

1.下载项目

git clone https://github.com/foolwood/SiamMask.git && cd SiamMask
export SiamMask=$PWD

2.下载训练好的模型

cd $SiamMask/experiments/siammask
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_VOT.pth
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_DAVIS.pth

3.配置环境(conda+pyTorch)

都写在了requirements里了,良心不良心

conda create -n siammask python=3.6
source activate siammask
pip install -r requirements.txt
bash make.sh

如果make.sh出问题的话,直接复制出来运行一下就好

 

4.测试

cd $SiamMask/experiments/siammask
export PYTHONPATH=$PWD:$PYTHONPATH
python ../../tools/demo.py --resume SiamMask_DAVIS.pth --config config_davis.json

5.效果

拓展阅读

1.【新智元文章】https://baijiahao.baidu.com/s?id=1627432661257652978&wfr=spider&for=pc

2.【原作者对此的思考】https://zhuanlan.zhihu.com/p/58154634

3.【博客】https://blog.csdn.net/shenziheng1/article/details/88586880

有问题欢迎留言交流,233

 

 

你可能感兴趣的:(深度学习,Python)