定位与建图是车辆未知环境自主驾驶的基础,激光雷达依赖于场景几何特征而视觉图像易受光线干扰,依靠单一激光点云或视觉图像的定位与建图算法存在一定局限性。本文提出一种激光与视觉融合SLAM(Simultaneous Localization And Mapping)...定位与建图是车辆未知环境自主驾驶的基础,激光雷达依赖于场景几何特征而视觉图像易受光线干扰,依靠单一激光点云或视觉图像的定位与建图算法存在一定局限性。本文提出一种激光与视觉融合SLAM(Simultaneous Localization And Mapping)的车辆自主定位算法,通过融合互补的激光与视觉各自优势提升定位算法的整体性能。为发挥多源融合优势,本文在算法前端利用激光点云获取视觉特征的深度信息,将激光-视觉特征以松耦合的方式输入位姿估计模块提升算法的鲁棒性。针对算法后端位姿和特征点大范围优化过程中计算量过大的问题,提出基于关键帧和滑动窗口的平衡选取策略,以及基于特征点和位姿的分类优化策略减少计算量。实验结果表明:本文算法的平均定位相对误差为0.11 m和0.002 rad,平均资源占用率为22.18%(CPU)和21.50%(内存),与经典的A-LOAM(Advanced implementation of LOAM)和ORB-SLAM2(Oriented FAST and Rotated BRIEF SLAM2)算法相比在精确性和鲁棒性上均有良好表现。展开更多
文摘定位与建图是车辆未知环境自主驾驶的基础,激光雷达依赖于场景几何特征而视觉图像易受光线干扰,依靠单一激光点云或视觉图像的定位与建图算法存在一定局限性。本文提出一种激光与视觉融合SLAM(Simultaneous Localization And Mapping)的车辆自主定位算法,通过融合互补的激光与视觉各自优势提升定位算法的整体性能。为发挥多源融合优势,本文在算法前端利用激光点云获取视觉特征的深度信息,将激光-视觉特征以松耦合的方式输入位姿估计模块提升算法的鲁棒性。针对算法后端位姿和特征点大范围优化过程中计算量过大的问题,提出基于关键帧和滑动窗口的平衡选取策略,以及基于特征点和位姿的分类优化策略减少计算量。实验结果表明:本文算法的平均定位相对误差为0.11 m和0.002 rad,平均资源占用率为22.18%(CPU)和21.50%(内存),与经典的A-LOAM(Advanced implementation of LOAM)和ORB-SLAM2(Oriented FAST and Rotated BRIEF SLAM2)算法相比在精确性和鲁棒性上均有良好表现。