ROS中阶笔记(七):机器人SLAM与自主导航—SLAM功能包的使用(下)

本文涉及的产品
资源编排,不限时长
简介: ROS中阶笔记(七):机器人SLAM与自主导航—SLAM功能包的使用

2.2.4 启动hector_slam演示


分别开启三个终端运行以下命令:

$ roslaunch mbot_gazebo mbot_laser_nav_gazebo.launch     # 动一个gazebo仿真节点
$ roslaunch mbot_navigation hector_demo.launch     # hector建图节点
$ roslaunch mbot_teleop mbot_teleop.launch          # 启动一个键盘控制节点

第一个节点启动了gazebo仿真,它使用仿真的雷达给出了一个scan扫描数据;而后下面的节点订阅了这个数据并进行处理,最后得到一个二维栅格地图。


hector这个算法有一个很大的问题,就是在于它的自定位,它利用自身的激光雷达数据进行定位,如果上一次的扫描数据与下一次的扫描数据基本一致的话,它就很难确定自己是否在运动,例如当我给一个足够大的空间,这里有一条没有任何特征点的长廊,长度远远超过激光扫描的最大距离时,hector基本就失去了建图的能力。


2.3 cartographer


2.3.1 cartographer功能包


2016年10月5日,谷歌开源

基于图网络的优化方法

二维或三维条件下的定位及建图功能

设计目的是在计算资源有限的情况下,实时获取相对较高精度的2D地图

主要基于激光雷达

后续会支持更多传感器和机器人平台,同时不断增加新的功能。


2.3.2 cartographer安装


方法一:(新方法)


sudo apt-get update
sudo apt-get install ros-<your ros version>-cartographer*  # 安装全部关于cartographe


方法二:原来的方法(有好处)


cartographer功能功能包没有集成到ROS的软件源里面,所以需要采用源码编译方式进行安装。为了不与其他安装包冲突,最好为cartographer专门创建一个工作空间,这里我们创建了一个工作空间catkin_google_ws:


1、安装工具:


$ sudo apt-get update
$ sudo apt-get install -y python-wstool python-rosdep ninja-build


2、初始化工作空间:


$ mkdir google_ws            # 创建工作空间,名称为google_ws
$ cd google_ws
$ wstool init src


3、设置下载地址(挂VPN最好)


在新建的工作空间下输入下边指令:


# 如果这一步错误,见下面方法一、方法二
$ wstool merge -t src https://raw.githubusercontent.com/googlecartographer/cartographer_ros/master/cartographer_ros.rosinstall                
$ wstool update -t src


说明:配置Cartographer需要三个包,分别是:Cartographer、Cartographer_ros 和ceres-solver。


方法一:

# 如果无法从google取出代码可以从github提取code:
# 在~/google_ws/src下目录下面ctrl+h打开隐藏文件夹,修改里面第三个包的下载地址: 
https://github.com/ceres-solver/ceres-solver.git

方法二:


# 输入完第一个命令后需要改文件的下载地址,另起终端输入:
$ gedit google_ws/src/.rosinstall
# 将最后一个git来源网址由https://ceres-solver.googlesource.com/ceres-solver.git改为htt


4、安装功能包依赖

# 安装  proto3.sh
进入protobuf的release版本下载页,link:https://github.com/protocolbuffers/protobuf/releases
# 在google_ws目录下
# protobuf的下载太慢,可以在官网手动下载好,放到cartographer目录下(和src同级,具体操作如下)
$ src/cartographer/scripts/install_proto3.sh
# 安装 deb 依赖,出现错误可以忽略 
$ sudo rosdep init
$ rosdep update
$ rosdep install --from-paths src --ignore-src --rosdistro=${kinetic} -y


5、编译功能包


$ catkin_make_isolated --install --use-ninja          # 在google_ws目录下,编译


6、在当前终端,设置环境变量


source install_isolated/setup.bash  #设置环境变量,在当前终端中设置环境变量,只能在当


建议把该句source命令直接写入系统的bashrc环境里


$ vim ./bashrc 
source install_isolated/setup.bash           # 然后把该句source命令添加到最后一行即可


2.3.3 启动2D、3D 演示

# Download the 2D backpack example bag.
wget -P ~/Downloads https://storage.googleapis.com/cartographer-public-data/bags/backpack_2d/cartographer_paper_deutsches_museum.bag
# Launch the 2D backpack demo.
roslaunch cartographer_ros demo_backpack_2d.launch bag_filename:=${HOME}/Downloads/cartographer_paper_deutsches_museum.bag
# Download the 3D backpack example bag.
wget -P ~/Downloads https://storage.googleapis.com/cartographer-public-data/bags/backpack_3d/with_intensities/b3-2016-04-05-14-14-00.bag
# Launch the 3D backpack demo.
roslaunch cartographer_ros demo_backpack_3d.launch bag_filename:=${HOME}/Downloads/b3-2016-04-05-14-14-00.bag

启动Revo LDS demo演示


启动PR2 demo填示

wget -P ~/Downloads https://storage.googleapis.com/cartographer-public-data/bags/pr2/2011-09-15-08-32-46.bag
roslaunch cartographer_ros demo_pr2.launch bag_filename:=~/Downloads/2011-09-15-08-32-46.bag


2.3.4 把cartographer功能包运行到自己的机器人上


由于传感器的rostopic不同,我们需要对cartographer订阅的名称进行修改,需要在launch文件中进行修改,但是修改后发现没有任何作用,这是因为修改后需要重新按照上面的流程进行编译安装,这个可能是因为在安装的时候其实已经把launch文件安装到系统中了,所以我们调用的时候还是调用系统中的launch文件


1、配置cartographer节点

mbot_navigation/launch/cartographer_demo_rplidar.launch


2、参数配置

mbot_navigation/config/rplidar.lua


2.3.5 启动cartographer仿真

catkin_make_isolated --install--use-ninja 
roslaunch mbot_ gazebo mbot_laser_nav_gazebo.launch 
roslaunch cartographer_ros cartographer_demo_rplidar.launch 
roslaunch mbot_teleop mbot_teleop.launch


2.4 ORB_SLAM


2.4.1 ORB_SLAM功能包


基于特征点的实时单目SLAM系统

实时解算摄像机的移动轨迹

构建三维点云地图

不仅适用于手持设备获取的一组连续图像,也可以应用于汽车行驶过程中获取的连续图像


Raul Mur-Artal,J.M.M.Montiel和Juan D.Tardos于2015年发表在IEEE Transactions on Robotics上


2.4.2 ORB_SLAM2安装


1、安装工具&下载源码:


sudo apt-get install libboost-all-dev libblas-dev liblapack-dev
git clone https://github.com/raulmur/ORB_SLAM2.git ORB_SLAM2       # 克隆到home下


2、安装eigen3.2.10

去官网下载:http://eigen.tuxfamily.org/index.php?title=Main_Page
解压源码包,并进入目录:
mkdir build
cd build
cmake ..
make
sudo make install

3、编译g2o

cd ~/ORB_SLAM2/Thirdparty/g2o/
mkdir build
cd build
cmake .. -DCMAKE_BUILD_TYPE=Release
make

4、编译DBoW2

cd ~/ORB_SLAM2/Thirdparty/DBoW2/
mkdir build && cd build 
cmake .. -DCMAKE_BUILD_TYPE=Release
make

5、编译Pangolin

sudo apt-get install libglew-dev 
git clone https://github.com/stevenlovegrove/Pangolin.git
cd Pangolin
mkdir build && cd build 
cmake ..
cmake --build .

6、编译ORM_SLAM

cd ~/ORB_SLAM2
mkdir build && cd build 
cmake .. -DCMAKE_BUILD_TYPE=Release
make

7、编译功能包(配置ROS环境)

# 首先修改.bashrc文件
$ cd ~
$ gedit .bashrc
# 打开.bashrc文件在最后一行加入
source ~/ORB_SLAM2/Examples/ROS/ORB_SLAM2/build/devel/setup.bash
$ source ~/.bashrc
$ export ROS_PACKAGE_PATH=${ROS_PACKAGE_PATH}:/home/ggk/ORB_SLAM2/Examples/ROS
$ cd ~/ORB_SLAM2
$ chmod +x build_ros.sh
$ ./build_ros.sh


第7步,编译功能包 出现的问题:


aHR0cHM6Ly9naXRlZS5jb20vSVQtY3V0ZS9QaWNiZWQvcmF3L21hc3Rlci9pbWcvaW1hZ2UtMjAyMDA1MjAwMjU4MTE1NjAucG5n.png


解决方法:


修改 ~/ORB_SLAM2/Examples/ROS/ORB_SLAM2/CMakeLists.txt,添加 -lboost_system


aHR0cHM6Ly9naXRlZS5jb20vSVQtY3V0ZS9QaWNiZWQvcmF3L21hc3Rlci9pbWcvaW1hZ2UtMjAyMDA1MjAwMzA0NDc3NjMucG5n.png


2.4.3 启动单目SLAM示例(基于数据包)


KITTI:http://www.cvlibs.net/datasets/kitti/eval_odometry.php,是室外,双目


1、首先下载数据包TUM:这个主要是室内,单目和RGB-D


https://vision.in.tum.de/data/datasets/rgbd-dataset/download#freiburg1_desk


在ORB-SLAM2下新建文件夹Data,把测试的数据解压在这里。

TUM数据集分为相机fr1,fr2,fr3,对应TUM1-3.yaml;

一般第一次测试用fr1/xyz这个数据集,这个就是x,y,z方向来回动,用来检测一下系统出没出什么问题。

其他的数据看名字就知道,比如desk就是在桌子附近来回转,room就是在房间里面扫来扫去。

值得注意的是,运行其他数据集的时候,单目不一定能追踪成功,在台式机上能成功的在虚拟机上也不一定能成功,这就需要我们进行一些调整,比如调整初始化需求数量等,这个关系到对SLAM系统的理解。


2、分别打开三个终端运行下面的三个命令:


$ roscore
# 进入ORB_SLAM2目录下启动Mono功能节点。
# 看到开启的等待数据的可视化建图界面
$ rosrun ORB_SLAM2 Mono Vocabulary/ORBvoc.txt Examples/ROS/ORB_SLAM2/Asus.yaml
# 进入数据包所在目录下,运行命令
# /camera/image_raw表示播放的数据要发布的话题名称,此时可以在界面中看到建图的效果
$ rosbag play rgbd_dataset_freiburg1_desk.bag /camera/rgb/image_color:=/camera/image_raw


PATH_TO_VOCABULARY:算法参数文件,在ORB_SLAM2/Vocabulary中,将其中的压缩包解压即可;


PATH_TO_SETTINGS_FILE:相机参数设置文件,需要对camera进行标定产生,也可以使用ORB_SLAM2/Examples/ROS/ORB_SLAM2中已有的设置文件Asus.yaml。


2.4.4 启动AR示例(基于数据包)

$ roscore
# 进入ORB_SLAM2目录下启动Mono功能节点。
# 看到开启的等待数据的可视化建图界面
$ rosrun ORB_SLAM2 MonoAR Vocabulary/ORBvoc.txt Examples/ROS/ORB_SLAM2/Asus.yaml
# 进入数据包所在目录下,运行命令
# /camera/image_raw表示播放的数据要发布的话题名称,此时可以在界面中看到建图的效果
$ rosbag play rgbd_dataset_freiburg1_desk.bag /camera/rgb/image_color:=/camera/image_raw


点击界面Insert Cube,看到正方形插入进来,展示AR效果


2.4.5 启动ORB_SLAM示例(真实摄像头)

$ roslaunch mbot_navigation usb_cam_remap.launch
# 进入ORB_SLAM2目录下启动Mono功能节点。
# 看到开启的等待数据的可视化建图界面
$ rosrun ORB_SLAM2 Mono Vocabulary/ORBvoc.txt Examples/ROS/ORB_SLAM2/Asus.yaml


2.4.6 启动AR示例(真实摄像头)


摄像头要运动起来,来完成地图构建

$ roslaunch mbot_vision usb_cam_remap.launch
# 进入ORB_SLAM2目录下启动Mono功能节点。
# 看到开启的等待数据的可视化建图界面
$ rosrun ORB_SLAM2 MonoAR Vocabulary/ORBvoc.txt Examples/ROS/ORB_SLAM2/Asus.yaml


3 参考资料

2.3 参考资料


Compiling Cartographer ROS


https://google-cartographer-ros.readthedocs.io/en/latest/compilation.html#building-installation


ROS slam-google cartographer编译和demo运行


https://blog.csdn.net/x_r_su/article/details/52927564


Google Cartographer安装教程


https://blog.csdn.net/xmy306538517/article/details/81455625


ubuntu18.04配置cartographer


https://blog.csdn.net/SimileciWH/article/details/82939752


相关实践学习
使用ROS创建VPC和VSwitch
本场景主要介绍如何利用阿里云资源编排服务,定义资源编排模板,实现自动化创建阿里云专有网络和交换机。
阿里云资源编排ROS使用教程
资源编排(Resource Orchestration)是一种简单易用的云计算资源管理和自动化运维服务。用户通过模板描述多个云计算资源的依赖关系、配置等,并自动完成所有资源的创建和配置,以达到自动化部署、运维等目的。编排模板同时也是一种标准化的资源和应用交付方式,并且可以随时编辑修改,使基础设施即代码(Infrastructure as Code)成为可能。 产品详情:https://www.aliyun.com/product/ros/
目录
相关文章
|
4月前
|
机器人 C++ Python
ROS2教程 02 功能包
本文是关于ROS2(机器人操作系统2)中功能包(package)管理的教程,介绍了如何检查功能包的依赖、创建新功能包、列出可执行文件、列出所有功能包、查询功能包的位置和描述信息,以及为C++和Python功能包配置必要的文件。
108 0
|
2月前
|
机器学习/深度学习 传感器 算法
深度学习之基于视觉的机器人导航
基于深度学习的视觉机器人导航是一种通过深度学习算法结合视觉感知系统(如摄像头、LiDAR等)实现机器人在复杂环境中的自主导航的技术。
61 5
|
4月前
|
机器人 Shell 开发者
ROS2教程08 ROS2的功能包、依赖管理、工作空间配置与编译
这篇文章是关于ROS2(Robot Operating System 2)中功能包、依赖管理、工作空间配置和编译的教程,涵盖了ROS2工作空间的概念、如何获取和安装功能包的依赖、构建工作空间的步骤,以及如何创建和管理ROS2功能包,包括使用命令行工具对功能包进行操作的方法。
444 0
ROS2教程08 ROS2的功能包、依赖管理、工作空间配置与编译
|
4月前
|
存储 缓存
02 ROS创建工作空间和功能包
如何在ROS中创建工作空间和功能包,包括初始化工作空间、编译、设置环境变量以及使用`catkin_create_pkg`创建新功能包的步骤。
61 1
|
4月前
|
自然语言处理 机器人 API
【Azure 机器人】微软Azure Bot 编辑器系列(4) : 使用语言生成功能[LG: Language Generation] (The Bot Framework Composer tutorials)
【Azure 机器人】微软Azure Bot 编辑器系列(4) : 使用语言生成功能[LG: Language Generation] (The Bot Framework Composer tutorials)
|
4月前
|
自然语言处理 机器人 API
【Azure 机器人】微软Azure Bot 编辑器系列(3) : 机器人对话流中加入帮助和取消按钮功能 (The Bot Framework Composer tutorials)
【Azure 机器人】微软Azure Bot 编辑器系列(3) : 机器人对话流中加入帮助和取消按钮功能 (The Bot Framework Composer tutorials)
|
5月前
|
Web App开发 机器人
小白一学就会小红书全自动写文发文机器人-爆文仿写笔记(二) -附提示词
小白一学就会小红书全自动写文发文机器人-爆文仿写笔记(二) -附提示词
119 1
|
5月前
|
传感器 人工智能 搜索推荐
苹果首款搭载Apple Intelligence功能的新品类曝光——AI桌面机器人
苹果研发的AI桌面机器人,融合360度机械臂与显示屏,预示智能家居新篇章。具备生物识别、实时交互与HomeKit控制,挑战已有的智能音箱市场。面对竞争,苹果依赖创新与品牌影响力,有望引领潮流,开启更智能、个性化的家庭体验。
83 0
|
6月前
|
机器人 定位技术 C++
技术笔记:ROS中测试机器人里程计信息
技术笔记:ROS中测试机器人里程计信息
|
7月前
|
机器人
量化交易机器人系统开发详情源码/功能步骤/需求设计/稳定版
he development of a quantitative trading robot system involves multiple aspects, including strategy design, data processing, and transaction execution. The following is a detailed overview of the development strategy for a quantitative trading robot system:

推荐镜像

更多