https://blog.csdn.net/symuamua/article/details/105543195
# 查询功率模式
sudo nvpmodel -q
# 切换至满功率状态
sudo nvpmodel -m1
#切换至5W状态
sudo nvpmodel -m0
sudo jetson_clocks
sudo jetson_clocks --show
# 运行命令
./installSwapfile.sh
chmod 777 installSwapfile.sh
sudo su #给权限
# input pwd
apt-get update
apt-get full-upgrade
sudo gedit ~/.bashrc #熟悉vim的,也可以gedit=>vim
# 添加
export CUDA_HOME=/usr/local/cuda-10.0
export LD_LIBRARY_PATH=/usr/local/cuda-10.0/lib64:$LD_LIBRARY_PATH
export PATH=/usr/local/cuda-10.0/bin:$PATH
保存退出,然后source ~/.bashrc一下,刷新配置
此时输入nvcc -V
查看版本
pkg-config opencv --modversion
wget https://nvidia.box.com/shared/static/ncgzus5o23uck9i5oth2n8n06k340l6k.whl -O torch-1.4.0-cp36-cp36m-linux_aarch64.whl
sudo apt-get install python3-pip libopenblas-base
pip3 install Cython
pip3 install numpy torch-1.4.0-cp36-cp36m-linux_aarch64.whl
sudo apt-get install python3-pip libopenblas-base
pip3 install Cython
python3
import torch
print(torch.__version__)
pip3 show numpy
pip3 install --upgrade numpy
pip3 install --upgrade protobuf
先贴下基本结构
参考链接:https://blog.csdn.net/symuamua/article/details/104343364
后来我发现,并不是所有py文件都无法运行(一般的是可以的),这就说明,可能是那里包装错了,或者漏装,或者是个假包
既然着手排查,就从第一行开始,然后直接报错,这就不得不让我猜想,导包问题!?!,因为文件是验证过的,本地可用
后来我偶然间做了个测试:
链接:https://blog.csdn.net/symuamua/article/details/104420876
https://github.com/dusty-nv/jetson-inference/issues/587
(学会使用github里的issues,看不懂英文尽量使用翻译软件,)
# 下载torchvision
git clone -b v0.5.0 https://github.com/pytorch/vision torchvision
# 安装torchvision
cd torchvision
sudo python3 setup.py install
# 也可以直接pip3 install .....
https://blog.csdn.net/symuamua/article/details/104457170
我发现,想要给我的Jetson Nano 更新TensorRT版本,就必须直接更新整体的Jetpack,目前最新Jetpack4.3是包含tensorRT6.0
而改变Jetpack版本,根据官网说法,有两种方法
第一种是直接重烧4.3的系统:就是下载最新镜像,然后重新装一遍系统
第二种是用NVIDIA 的SDK Manager刷Jetpack版本:推荐这位博主刷机教程,虽然我没成功
第三种,我是没有尝试过的,思路是直接从github上源码编译,有可能可以,因为我在那篇文档里面瞟到tensorrt7.0似乎支持Jetson Nano这种aarch的系统架构
另外,附上Jetpack 4.3的镜像(如果选择自己下,迅雷可能会快一些):
链接:https://pan.baidu.com/s/1qiXhP-6xFLyRwBIIWa0zCg
提取码:6brj
复制这段内容后打开百度网盘手机App,操作更方便哦
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NTI0tOBD-1642742487547)(C:\Users\Fate\Pictures\Camera Roll\20200310233139946.png)]
对应版本
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-F7pgPAbo-1642742487549)(C:\Users\Fate\Pictures\Camera Roll\20200310233643297.png)]
cd deepstream_sdk_v4.0.2_jetson
sudo tar -xvpf binaries.tbz2 -C / #在opt安装
./install.sh
deepstream-app -c samples/configs/deepstream-app/source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.txt
deepstream-app: error while loading shared libraries: libgstrtspserver-1.0.so.0: cannot open shared object file: No such file or directory
sudo apt install \
libssl1.0.0 \
libgstreamer1.0-0 \
gstreamer1.0-tools \
gstreamer1.0-plugins-good \
gstreamer1.0-plugins-bad \
gstreamer1.0-plugins-ugly \
gstreamer1.0-libav \
libgstrtspserver-1.0-0 \
libjansson4
这个可能需要在cache中看看,有时候需要删除一下cache
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8Vd1Qpht-1642742487549)(C:\Users\Fate\Pictures\Camera Roll\20200311000727473.png)]
rm ~/.cache/gstreamer-1.0/**catchname**
换到本机,同样的命令:会有如下所示,这条命令还会有图片,但不管什么命令最后只要有App run successful即可
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6BFWgIMP-1642742487550)(C:\Users\Fate\Pictures\Camera Roll\20200313224117531.png)]
则解决方案为修改sys路径,这里又有相对路径与绝对路径两种,对于VScode,还是绝对路径比较安心
https://blog.csdn.net/symuamua/article/details/104851554
文章目录
背景说明
最终效果
实现过程
矩形推理在整体流程中的位置
图形数据输入处理
推理输出接收
总结
git地址
模型是YOLOv3 spp
框架是Pytorch
由于我的Nano上GPU计算资源不够,所以我们急需减少模型计算量,在剪枝与量化+转tensorRT后从500ms达到了85ms每张,但依然达不到要求,于是想到了矩形推理。
在256x416的视频中实现50-55ms 处理一张图片的成绩,换算成FPS 在 20左右(YOLOv3 Spp)
https://blog.csdn.net/symuamua/article/details/105423655
参考;https://blog.csdn.net/tanmx219/article/details/85883934
参考:https://blog.csdn.net/symuamua/article/details/105937124
虽然说是极限优化,实际上还没到极限,还有一丁点的上升空间——数据加载部分,读取本地视频我还是采用的OpenCV,所以显得慢了点,如果加上确实应该可以到19FPS(没有显示的时候的成绩)
https://github.com/ch98road/YOLOV3_Tensorrt_Rectangular_Inference
om/ageitgey/84943a12dd0d9f54e90f824b94e4c2a9/raw/906b921481a0f18ddf1fcbb1e8a45d58fbde3b5e/doorbell_camera.py
参考:https://blog.csdn.net/symuamua/article/details/105937124
虽然说是极限优化,实际上还没到极限,还有一丁点的上升空间——数据加载部分,读取本地视频我还是采用的OpenCV,所以显得慢了点,如果加上确实应该可以到19FPS(没有显示的时候的成绩)
https://github.com/ch98road/YOLOV3_Tensorrt_Rectangular_Inference
https://github.com/eriklindernoren/PyTorch-YOLOv3