同时定位与建图(Simultaneous Localization and Mapping,SLAM)是移动机器人实现智能化的关键技术,被广泛应用于自动驾驶、虚拟现实、环境测绘等领域。采用单目相机实现的视觉SLAM具有体积小巧、重量轻便、价格便宜等优势,受到了越来越...
详细信息
同时定位与建图(Simultaneous Localization and Mapping,SLAM)是移动机器人实现智能化的关键技术,被广泛应用于自动驾驶、虚拟现实、环境测绘等领域。采用单目相机实现的视觉SLAM具有体积小巧、重量轻便、价格便宜等优势,受到了越来越多的关注。然而在纹理缺失、光照快速变化、剧烈运动等场景下,单目视觉SLAM的鲁棒性较差,且无法恢复出尺度信息,限制了其应用范围。本文主要研究如何通过多源信息融合的方式来提高单目视觉SLAM在复杂场景下的定位精度和鲁棒性,包括多模态传感器信息、环境中的几何结构特征、载体运动学信息等。主要研究内容如下:(1)本文提出了一种基于IMU先验信息辅助的轻量级视觉前端算法,提高了系统在动态环境下的特征点跟踪能力。首先通过网格化方法对图像进行角点提取,随后利用IMU解算得到的先验位姿对特征点跟踪、外点剔除以及地图点三角化过程进行辅助,得到更准确的视觉几何约束。实验结果表明,本文提出的算法能够得到更为鲁棒的特征关联,在高动态场景下具有更高的位姿估计精度。(2)针对单目视觉惯性SLAM在轮式机器人上出现的退化问题,本文提出了一种基于因子图优化的紧耦合视觉-惯性-轮速SLAM算法,能够为地面轮式机器人提供鲁棒且高精度的位姿估计结果。首先,根据车辆的运动学信息以及轮速计原始观测量,提出了流形上的IMU/ODO联合预积分模型,解决了由于重复积分导致计算代价增加的问题;其次推导了该预积分的残差及雅克比矩阵,并在后端优化中对轮速计的内参进行在线标定;最后在大规模的城市车载环境下的实验结果表明,相较于主流的视觉惯性SLAM方法,本文算法具有更高的定位精度与鲁棒性。(3)针对在快速运动、弱纹理、光照快速变化等场景下,基于点特征的视觉SLAM算法鲁棒性较差的问题,本文引入了线特征作为补充,提高了算法在弱纹理环境下的定位精度。首先通过改进的ELSED线检测算法和LBD描述子对图像进行线特征的提取和匹配;随后采用普吕克坐标和正交表示法对直线进行参数化表示及几何计算,解决由于直线过参数化导致计算结果不稳定的问题;接着推导了空间直线的残差模型及雅克比矩阵,并基于滑动窗口策略对点特征、线特征和IMU预积分残差进行联合优化。实验结果表明,相较于仅依赖于点特征的方法,本文算法能够得到更精确的位姿估计结果,并构建出周围环境的结构化地图。
针对传统多状态约束卡尔曼滤波算法(MSCKF)在实现机器人室内定位时,速度和位置状态方程需要对IMU中加速度计的测量数据进行积分,存在漂移和累计误差,且加速度计受重力干扰问题,本文提出改进MSCKF算法.改进MSCKF算法避免使用加速度计传感器,利用轮式里程计传感器对平移测量较为精确的优点,将IMU中陀螺仪和轮式里程计的数据进行融合,改进MSCKF算法的扩展卡尔曼(EKF)状态方程.首先利用陀螺仪传感器的角速度数据得到改进EKF姿态方程,然后利用轮式里程计传感器的平移数据,结合姿态方程中的旋转信息得到改进EKF速度和位置方程.最后在机器人操作系统(ROS)上实现MSCKF及其改进算法,并结合Turtlebot2机器人在室内进行实验验证.实验结果表明,改进MSCKF算法的运动轨迹更接近于真实轨迹,定位精度较改进前所有提高,改进前平均闭环误差是0.429 m,改进后平均闭环误差是0.348 m.
暂无评论