在jetson-nano上运行的trt-pose

目录

    • 识别效果图
    • 相关资源链接:
    • 操作步骤:
        • 1. 安装PyTorch and Torchvision
        • 2. 安装 torch2trt
        • 3. 安装其他支持包
        • 4. 安装trt_pose
        • 5. 安装jetcam
        • 6. 安装installSwapfile
        • 7. 下载模型
        • 8. 安装jupyter lab
        • 9.安装jtop
        • 10. 运行live_demo.ipynb
    • 其他

识别效果图

在jetson-nano上运行的trt-pose_第1张图片

相关资源链接:

deepstream_pose_estimation
Creating a Human Pose Estimation Application with NVIDIA DeepStream
trt_pose
pytorch-for-jetson
jetcam

操作步骤:

1. 安装PyTorch and Torchvision

安装的pytorch1.6.0版本对应的Torchvision是0.7.0,需要在jetson-nano上安装

  1. 安装PyTorch
    sudo apt-get install python3-pip libopenblas-base libopenmpi-dev
    pip3 install Cython
    pip3 install numpy torch-1.6.0-cp36-cp36m-linux_aarch64.whl
    从CDSN下载个 torch-1.6.0-cp36-cp36m-linux_aarch64.whl即可
  2. 安装Torchvision
    sudo apt-get install libjpeg-dev zlib1g-dev libpython3-dev libavcodec-dev libavformat-dev libswscale-dev
    直接git clone https://github.com/pytorch/vision torchvision 一般不会成功
    可以先用码云复制到自己的空间,再选择0.7.0版本下载。
    放到jetson-nano上以后,unzip
    cd vision
    export BUILD_VERSION=0.7.0
    python3 setup.py install

2. 安装 torch2trt

git clone https://github.com/NVIDIA-AI-IOT/torch2trt
cd torch2trt
sudo python3 setup.py install --plugins

3. 安装其他支持包

sudo pip3 install tqdm cython pycocotools
sudo apt-get install python3-matplotlib

4. 安装trt_pose

git clone https://github.com/NVIDIA-AI-IOT/trt_pose
cd trt_pose
sudo python3 setup.py install

5. 安装jetcam

jetcam用于jetson对摄像头的支持,后面运行live_demo.ipynb需要用到
git clone https://github.com/NVIDIA-AI-IOT/jetcam
cd jetcam
sudo python3 setup.py install

6. 安装installSwapfile

设置Swap是因为jetson-nano运行trt-pose本身的4G内存不够。
git clone https://github.com/JetsonHacksNano/installSwapfile
sudo ./installSwapfile/installSwapfile.sh
默认是6G的大小,使用的是SD卡的空间。

7. 下载模型

下载模型直接从https://github.com/NVIDIA-AI-IOT/trt_pose下载resnet18_baseline_att_224x224_A即可。谷歌浏览器可顺利下载。

8. 安装jupyter lab

sudo apt install nodejs npm
sudo pip3 install pillow==6.2.2 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip3 install jupyter jupyterlab
sudo reboot //重启

9.安装jtop

pip3 install jetson-stats
安装完成后运行 jtop可以看jetson板卡各种资源使用情况。

10. 运行live_demo.ipynb

需要先把模型文件拷贝到tasks/human_pose,
在jetson-nano插入usb摄像头
cd tasks/human_pose
jupyter lab
然后全部运行即可
上一张效果图
在jetson-nano上运行的trt-pose_第2张图片
这个腿是不是不错,哦不对,这个腿识别的是不是不错~

其他

关于deepstream_pose_estimation,没有在jetson-nano上运行成功,估计是内存的问题。问题出在了ONNX文件读取生成engine文件。可以考虑在PC上运行或者性能更高的jetson板卡上运行。

你可能感兴趣的:(JETSON-NANO,python,pytorch,深度学习)