VIBE:Video Inference for Human Body Pose and Shape Estimation|项目踩坑全记录

实时姿态估计+3Dshape:VIBE|项目踩坑全记录

项目地址:https://github.com/mkocabas/VIBE

项目功能:
1、适用于任意多目标视频;
2、支持CPU和GPU;
3、在GPU(RTX2080Ti )上可达到30fps;
4、在3DPW和MPI-INF-3DHP数据集上可达到SOTA;
5、可生成FBX/glTF输出结果;
6、提供训练代码;
7、包含时域SMPL化的实验。

环境配置:

  • 我的环境:windows10、python3.7
  • 执行 git clone https://github.com/mkocabas/VIBE.git
  • 官方文档上建议第二步按照以下命令执行:
    VIBE:Video Inference for Human Body Pose and Shape Estimation|项目踩坑全记录_第1张图片
    但是直接运行以上指令报错!
    因此我将.sh文件里面的命令拆分成以下几条指令:
  • 首先创建虚拟环境,要求python版本>=3.7.0:conda create -n VIBE python=3.7.0
  • 激活环境:conda activate VIBE
  • cd ./vibe
  • pip install numpy==1.17.5 torch==1.4.0 torchvision==0.5.0
  • pip install git+https://github.com/giacaglia/pytube.git --upgrade转化为 pip install pytube
  • pip install -r requirements.txt
    Note:在requirement.txt中,有两个问题:
    (1)tensorflow与tensorboard的版本不匹配,见下图,需要将tensorboard的版本改为1.15.0;
    VIBE:Video Inference for Human Body Pose and Shape Estimation|项目踩坑全记录_第2张图片
    (2)txt文件中有三条git+http://........git的指令,如果报错,可以先删除,最后自己配置;
  • 自己配置
git+https://github.com/mattloper/chumpy.git
git+https://github.com/mkocabas/yolov3-pytorch.git
git+https://github.com/mkocabas/multi-person-tracker.git

对应指令如下:

pip install chumpy
pip install git+https://github.com/mkocabas/yolov3-pytorch.git
pip install git+https://github.com/mkocabas/multi-person-tracker.git
  • 数据准备
    运行指令:bash ./scripts/prepare_data.sh
    这里面就是下载解压建文件转移文件一系列的操作,在此不在赘述。

  • 至此,环境配置结束,运行演示代码:python demo.py --vid_file sample_video.mp4 --output_folder output/ --display
    Note:在这里可能会报错
    error
    解决办法:注释掉demo.py中的os.environ['PYOPENGL_PLATFORM'] = 'egl'

  • 完结撒花~最终效果:
    VIBE:Video Inference for Human Body Pose and Shape Estimation|项目踩坑全记录_第3张图片

你可能感兴趣的:(run)