多移动机器人的概念就不叙述了,直接讲如何正确的在ROS系统下构建基于stdr simulation和gazebo平台下的仿真实验。
1 前提准备
安装好如下几个基本的包:
等其他必要的ROS环境
2 单移动机器人和多移动机器人的配置区别
单移动机器人比较简单,也不用关注与namespace这些问题,二多移动机器人,因为每个机器人都具备同样的基本功能,因此不可避免的需要用到namespace(以下简称ns)的概念将他们区分开,这样就可以一直通过namespace复制同样基本功能的机器人了。如果你不采用ns的方式,而是简单的不断生成新的机器人,即使你保证他们的位置不同,但是因为node名重复,ROS会kill之前的node保留最后一个生成的机器人状态。
但是除了namespace外,还需要配置tf_prefixes的参数值,这是最大的区别之处,也是最重要的,能否成功的生成多个移动机器人。
2.1 要明确的概念
构造多移动机器人在一张map中,这个map可以使slam构建的,无论你是用cartographer,hector_slam,gmapping等。我们都是希望map只有一张,每个机器人是全局共享的。
每个机器人之间除了初始时刻的位姿不同以外,其他的结构,携带的传感器类型都完全一样,没有差别。当然你可以根据自己的需求使得他们不同。如果希望每个机器人都可以通过amcl和move_base进行自主导航和实时定位,那么每个机器人都应当具备amcl和move_base。
因此,map是全局的,不需要ns,机器人的构建,amcl和move_base是需要ns的,因为每个移动机器人都需要具备这些属性。
如下结构所示:
/map /robot1/robot_state_publisher /robot2/robot_state_publisher /robot1/robot_pose_ekf /robot2/robot_pose_ekf /robot1/amcl /robot2/amcl /robot1/move_base /robot2/move_base /robot1/laser_0 /robot2/laser_0 /robot1/sensor0 /robot2/sensor0 /robot1/sensor1 /robot2/sensor0 ....... ........
2.2 配置单个机器人的launch文件,然后就可以在其他launch文件中无限的复制单个移动机器人的个数了:
2.2.1 在你的工作空间下新建一个项目:
cd ~/catkin_ns/src catkin_creat_pkg multi_robots cd multi_robots mkdir launch map param rviz tree
最终如下所示:
~/catkin_ws/src/multi_robots$ tree . ├── CMakeLists.txt ├── launch ├── map ├── package.xml ├── param └── rviz 4 directories, 2 files
在launch文件下,新建one_robot.launch
内容如下:
在launch文件中,有两个变量,robot_name和init_pose,可以通过这两个参数生成无数个移动机器人。
2.2.2 在launch文件夹下创建,名为:myrobots.launch的文件
文件内容如下:
2.2.3 在launch文件夹下,创建main.launch,用来加载之前的myroobts.launch并且还可以将其他的内容加在这里,所以命名成main.launch
内容如下:
至此初步的配置已经完成了。
如果你是按照我的工程名字建立的,则不需要改动,如果你的包是你自定义的,则需要讲myrobots.launch文件中的multi_robots全部替换成你的包的名字。
3 查看在gazebo仿真中的情况
roslaunch multi_robots main.launch
注意第一次加载gazebo会话费很长时间,或者报错,请耐心等待,或者重新运行launch文件。
结果如下图1所示:
图1
三个turtlebot2成功的在地图中创建了。
现在你可以订阅cmd_vel话题,使用键盘控制每一个小车移动了
当然你也可以编写自己的运动控制算法来验证自己的算法了。
图2
图2为运行时的node和参数,注意tf_prefix一定要设置,很关键
从图2中可以看出,三个移动机器人分别属于robot1,robot2,robot3,的命名空间。
rostopic list 的全部信息如下所示:
/clock /gazebo/link_states /gazebo/model_states /gazebo/parameter_descriptions /gazebo/parameter_updates /gazebo/set_link_state /gazebo/set_model_state /robot1/camera/depth/camera_info /robot1/camera/depth/image_raw /robot1/camera/depth/points /robot1/camera/parameter_descriptions /robot1/camera/parameter_updates /robot1/camera/rgb/camera_info /robot1/camera/rgb/image_raw /robot1/camera/rgb/image_raw/compressed /robot1/camera/rgb/image_raw/compressed/parameter_descriptions /robot1/camera/rgb/image_raw/compressed/parameter_updates /robot1/camera/rgb/image_raw/compressedDepth /robot1/camera/rgb/image_raw/compressedDepth/parameter_descriptions /robot1/camera/rgb/image_raw/compressedDepth/parameter_updates /robot1/camera/rgb/image_raw/theora /robot1/camera/rgb/image_raw/theora/parameter_descriptions /robot1/camera/rgb/image_raw/theora/parameter_updates /robot1/joint_states /robot1/mobile_base/commands/motor_power /robot1/mobile_base/commands/reset_odometry /robot1/mobile_base/commands/velocity /robot1/mobile_base/events/bumper /robot1/mobile_base/events/cliff /robot1/mobile_base/sensors/imu_data /robot1/odom /robot2/camera/depth/camera_info /robot2/camera/depth/image_raw /robot2/camera/depth/points /robot2/camera/parameter_descriptions /robot2/camera/parameter_updates /robot2/camera/rgb/camera_info /robot2/camera/rgb/image_raw /robot2/camera/rgb/image_raw/compressed /robot2/camera/rgb/image_raw/compressed/parameter_descriptions /robot2/camera/rgb/image_raw/compressed/parameter_updates /robot2/camera/rgb/image_raw/compressedDepth /robot2/camera/rgb/image_raw/compressedDepth/parameter_descriptions /robot2/camera/rgb/image_raw/compressedDepth/parameter_updates /robot2/camera/rgb/image_raw/theora /robot2/camera/rgb/image_raw/theora/parameter_descriptions /robot2/camera/rgb/image_raw/theora/parameter_updates /robot2/joint_states /robot2/mobile_base/commands/motor_power /robot2/mobile_base/commands/reset_odometry /robot2/mobile_base/commands/velocity /robot2/mobile_base/events/bumper /robot2/mobile_base/events/cliff /robot2/mobile_base/sensors/imu_data /robot2/odom /robot3/camera/depth/camera_info /robot3/camera/depth/image_raw /robot3/camera/depth/points /robot3/camera/parameter_descriptions /robot3/camera/parameter_updates /robot3/camera/rgb/camera_info /robot3/camera/rgb/image_raw /robot3/camera/rgb/image_raw/compressed /robot3/camera/rgb/image_raw/compressed/parameter_descriptions /robot3/camera/rgb/image_raw/compressed/parameter_updates /robot3/camera/rgb/image_raw/compressedDepth /robot3/camera/rgb/image_raw/compressedDepth/parameter_descriptions /robot3/camera/rgb/image_raw/compressedDepth/parameter_updates /robot3/camera/rgb/image_raw/theora /robot3/camera/rgb/image_raw/theora/parameter_descriptions /robot3/camera/rgb/image_raw/theora/parameter_updates /robot3/joint_states /robot3/mobile_base/commands/motor_power /robot3/mobile_base/commands/reset_odometry /robot3/mobile_base/commands/velocity /robot3/mobile_base/events/bumper /robot3/mobile_base/events/cliff /robot3/mobile_base/sensors/imu_data /robot3/odom /rosout /rosout_agg /tf /tf_static
可以看到,属于不同robot命名空间的移动机器人基本功能完全一样。rqt_graph就不贴了,太大了,截图也看不清楚。
至此在gazebo中的基本加载多机器人的仿真环境已经具备,你可以通过订阅话题对你的运动控制算法进行验证了。
注意,如果你要加载laser_scan激光雷达或者其他传感器,只需要在one_robot.launch注释的位置之间添加就可以了,其他文件不用修改。
可以参考链接:
multi-robots+laser rviz :https://answers.ros.org/question/40397/multirobot-laser-rviz/
4 配置导航包
导航包的写法可以参考ROS官网给出的实例:
link:http://wiki.ros.org/navigation/Tutorials/RobotSetup
在launch文件下新建一个move_base.launch文件,
内容如下:
接着继续新建一个navigation.launch文件,
内容如下:
这几个launch文件都需要针对你自己的环境做修改的,之间运行是不正确的。
5 关于tf_prefix的信息,可以在ROS官网看到
link:http://wiki.ros.org/tf2/Migration
6 如果运行launch文件时提示tf2 “/” 的错误
这是由于tf2中去除了“/”的检测,这与tf是有区别的,解决办法就是讲话题的“/”全部删除
7 还可以通过这个视屏学习关于multiple robots的配置
link:https://www.youtube.com/watch?v=mFTkN5v4Jzc&t=370s
8 stdr simulation 平台实现多移动机器人的创建,amcl定位和move_base的导航
updating