在前文《多方位玩转“地平线新发布AIoT开发板——旭日X3派(Sunrise x3 Pi)” 插电!开机!轻松秒杀!》中,我们已经成功了使用了这个开发板。
深度相机目前在多个应用得到了广泛的应用,如果能在上面运行起来深度相机的话,那这个开发板岂不是能应用在更多的场景上。
我在这个板子上对深度相机所需的SDK进行了编译,SDK版本为:Intel® RealSense™ SDK 2.0 (v2.50.0)。
2022-7-2日更新:利用预编译包,成功获取D435的RGBD图像!!!
总结下遇到的问题:
我编译这个SDK花费了5.6个小时,为了方便各位后续使用,各位可以直接下载编译好的文件,包含C++和Python的库,相关文件我已经上传至百度云(提取码:awe4 )。
在提供的这些文件中,压缩包built_realsense.zip
为这些文件夹的集合,99-realsense-libusb.rules
为相机规则文件,在源码包的config
文件夹中。
①头文件、库文件、bin文件配置。 文件夹lib、include和bin的内容都要放在/usr/local
文件夹下,假设,这些文件的下载根目录为downpath
,则具体操作如下(建议移动前check下路径):
## 复制文件
sudo cp -r downpath/bin/* /usr/local/bin/
sudo cp -r downpath/include/* /usr/local/include/
sudo cp -r downpath/lib/* /usr/local/lib/
## 创建库的软链接
sudo ln -s /usr/local/lib/librealsense2-gl-so.2.50.0 /usr/local/lib/librealsense2-gl.so.2.50
sudo ln -s /usr/local/lib/librealsense2-gl-so.2.50 /usr/local/lib/librealsense2-gl.so
sudo ln -s /usr/local/lib/librealsense2.so.2.50.0 /usr/local/lib/librealsense2.so.2.50
sudo ln -s /usr/local/lib/librealsense2.so.2.50 /usr/local/lib/librealsense2.so
② Python包配置。 文件夹python3的内容注意要放在/usr/lib/python3/dist-packages/
里面(建议移动前check下路径)。
## 复制文件
sudo cp -r downpath/python3/dist-packages/pyrealsense2 /usr/lib/python3/dist-packages/
## 创建库的软链接
sudo ln -s /usr/lib/python3/dist-packages/pyrealsense2/pybackend2.cpython-38-aarch64-linux-gnu.so.2.50.0 /usr/lib/python3/dist-packages/pyrea lsense2/pybackend2cpython-38-aarch64-linux-nu.so.2.50
sudo ln -s /usr/lib/python3/dist-packages/pyrealsense2/pybackend2.cpython-38-aarch64-linux-gnu.so.2.50 /usr/lib/python3/dist-packages/pyrea lsense2/pybackend2cpython-38-aarch64-linux-nu.so
sudo ln -s /usr/lib/python3/dist-packages/pyrealsense2/pyrealsense2.cpython-38-aarch64-linux-gnu.so.2.50.0 /usr/lib/python3/dist-packages/pyrealsense2.cpython-38-aarch64-linux-gnu.so.2.50
sudo ln -s /usr/lib/python3/dist-packages/pyrealsense2/pyrealsense2.cpython-38-aarch64-linux-gnu.so.2.50 /usr/lib/python3/dist-packages/pyrealsense2.cpython-38-aarch64-linux-gnu.so
③ bin文件配置。 可执行文件,拷贝过后不存在执行属性。需要sudo chmod +x **
来赋予执行权限
④ rules文件配置。 测试中发现部分文件需要rules文件支持,系统中有两个放置rules文件的地方,安全起见,在文件夹/usr/lib/udev/rules.d/
和文件夹/usr/lib/udev/rules.d/
下都存一份99-realsense-libusb.rules
文件。
这样就可以愉快的使用啦(ง •_•)ง,下图为D435检测情况。
欢迎给位来测试哦!!o( ̄▽ ̄)ブ
本次测试发现,开发板似乎存在USB3.0接口不稳的问题,多重试重启几次ಠ_ಠ
编译所需要的文件已经放在百度云(提取码:li0f )中,在编译前请提前下载
编译前需要注意以下几点:
sudo nmcli device disconnect eth0
,eth0为网络名,可以利用sudo nmcli dev
查看。sudo apt-get install libxrandr-dev libxinerama-dev libxcursor-dev libxi-dev libusb-dev
。以上内容是我编译过程中记录的一些笔记,可能对丢失一些库,但是这些都会在系统上提示,根据需求安装即可。
下面开始编译Realsense的SDK,下面是操作步骤:
librealsense-2.50.0.zip
,进入文件夹cd librealsense-2.50.0
,并创建编译文件夹mkdir build
。cmake ../ -DFORCE_RSUSB_BACKEND=ON -DBUILD_PYTHON_BINDINGS:bool=true -DPYTHON_EXECUTABLE=/usr/bin/python3 -DCMAKE_BUILD_TYPE=release
,切记安装过程要联网。make
即可,切记不能使用多线程编译,内存不够(我没成功创建虚拟内存,似乎系统内核删除了虚拟内存的分配功能)。如果想更快的话,可以动态的输入make -j2
,这样在内存不够的地方再改回make
即可。sudo make install
将编译好的库复制到系统中。本方法编译的结果包含C++库和Python函数包
在使用前,一定要输入sudo rs-enumerate-devices
查看设备支持的分辨率以及连接信息。
下面为设备连接信息,可以看到,当前设备识别的USB接口为3.2接口,这样就可以获取更大分辨率的RGBD图像了。
Device info:
Name : Intel RealSense L515
Serial Number : f0211269
Firmware Version : 01.05.08.01
Recommended Firmware Version : 01.05.08.01
Physical Port : 2-1-2
Debug Op Code : 15
Product Id : 0B64
Camera Locked : YES
Usb Type Descriptor : 3.2
Product Line : L500
Asic Serial Number : 0003a9d3dada
Firmware Update Id : 0003a9d3dada
同时记录,彩色相机和深度相机支持的配置,方便后续相机分辨率的设置。
下面提供获取RGBD数据的python代码
from hobot_vio import libsrcampy as srcampy
import cv2
import numpy as np
import time
import pyrealsense2.pyrealsense2 as rs
# 这里把前面的HDMI可视化部分的代码贴上
# 复制类class ImageShow(object)
pipeline = rs.pipeline()
config = rs.config()
## 这里根据前面sudo rs-enumerate-devices的输出进行配置
config.enable_stream(rs.stream.depth, 1024, 768, rs.format.z16, 30)
config.enable_stream(rs.stream.color, 1920, 1080, rs.format.rgb8, 30)
align_to = rs.stream.color
alignedFs = rs.align(align_to)
profile = pipeline.start(config)
#######################################
## 下面是获取内参的方式
frames = pipeline.wait_for_frames()
depth = frames.get_depth_frame()
color = frames.get_color_frame()
# 获取内参
depth_profile = depth.get_profile()
print('depth_profile:', depth_profile)
#
print(type(depth_profile))
#
print('fps:', depth_profile.fps())
# 30
print(depth_profile.stream_type())
# stream.depth
print('', depth_profile.unique_id)
# >
color_profile = color.get_profile()
print(depth_profile.fps())
print(depth_profile.stream_index())
color_intrin = cvsprofile.get_intrinsics()
print(color_intrin)
# width: 640, height: 480, ppx: 318.482, ppy: 241.167, fx: 616.591, fy: 616.765, model: 2, coeffs: [0, 0, 0, 0, 0]
depth_intrin = dvsprofile.get_intrinsics()
print(depth_intrin)
extrin = depth_profile.get_extrinsics_to(color_profile)
print(extrin)
depth_sensor = profile.get_device().first_depth_sensor()
depth_scale = depth_sensor.get_depth_scale()
print('depth scale: ', depth_scale)
####################
# 视频流展示
im_show = ImageShow()
while True:
# 获取图片帧
frameset = pipeline.wait_for_frames()
aligned_frames = alignedFs.process(frameset)
color_frame = aligned_frames.get_color_frame()
depth_frame = aligned_frames.get_depth_frame()
if not depth_frame or not color_frame:
continue
depth_img = np.asanyarray(depth_frame.get_data())
color_img = np.asanyarray(color_frame.get_data())
color_img = cv2.cvtColor(color_img, cv2.COLOR_RGB2BGR)
depth_bgr = cv2.applyColorMap(cv2.convertScaleAbs(depth_img, alpha=0.03), cv2.COLORMAP_JET)
show_img = np.hstack([color_img, depth_bgr])
im_show.show(show_img)
im_show.close()
跑起来之后,在显示屏上的展示效果如下,能够有效地获取目标的RGBD数据。
但是,比较危险的一点,在整体的展示过程中,内存耗用200M,CPU几乎占满,这样很难继续做其他的工作(这也与RGBD分辨率为1920*1080有关,而且获取数据这个过程存在大量的线程)。希望后续这个板子能从硬件上对这个SDK进行一个适配,以腾出更多的计算空间给下游算法。
花费亿点时间,终于完成了realsense的SDK编译与使用,这意味着这个新板子可应用在更多的场景。希望后续能够对这个问题进行适配,降低CPU占用,给核心算法留点计算空间→_→。