定位与建图是车辆未知环境自主驾驶的基础,激光雷达依赖于场景几何特征而视觉图像易受光线干扰,依靠单一激光点云或视觉图像的定位与建图算法存在一定局限性。本文提出一种激光与视觉融合SLAM(Simultaneous Localization And Mapping)...定位与建图是车辆未知环境自主驾驶的基础,激光雷达依赖于场景几何特征而视觉图像易受光线干扰,依靠单一激光点云或视觉图像的定位与建图算法存在一定局限性。本文提出一种激光与视觉融合SLAM(Simultaneous Localization And Mapping)的车辆自主定位算法,通过融合互补的激光与视觉各自优势提升定位算法的整体性能。为发挥多源融合优势,本文在算法前端利用激光点云获取视觉特征的深度信息,将激光-视觉特征以松耦合的方式输入位姿估计模块提升算法的鲁棒性。针对算法后端位姿和特征点大范围优化过程中计算量过大的问题,提出基于关键帧和滑动窗口的平衡选取策略,以及基于特征点和位姿的分类优化策略减少计算量。实验结果表明:本文算法的平均定位相对误差为0.11 m和0.002 rad,平均资源占用率为22.18%(CPU)和21.50%(内存),与经典的A-LOAM(Advanced implementation of LOAM)和ORB-SLAM2(Oriented FAST and Rotated BRIEF SLAM2)算法相比在精确性和鲁棒性上均有良好表现。展开更多
文摘定位与建图是车辆未知环境自主驾驶的基础,激光雷达依赖于场景几何特征而视觉图像易受光线干扰,依靠单一激光点云或视觉图像的定位与建图算法存在一定局限性。本文提出一种激光与视觉融合SLAM(Simultaneous Localization And Mapping)的车辆自主定位算法,通过融合互补的激光与视觉各自优势提升定位算法的整体性能。为发挥多源融合优势,本文在算法前端利用激光点云获取视觉特征的深度信息,将激光-视觉特征以松耦合的方式输入位姿估计模块提升算法的鲁棒性。针对算法后端位姿和特征点大范围优化过程中计算量过大的问题,提出基于关键帧和滑动窗口的平衡选取策略,以及基于特征点和位姿的分类优化策略减少计算量。实验结果表明:本文算法的平均定位相对误差为0.11 m和0.002 rad,平均资源占用率为22.18%(CPU)和21.50%(内存),与经典的A-LOAM(Advanced implementation of LOAM)和ORB-SLAM2(Oriented FAST and Rotated BRIEF SLAM2)算法相比在精确性和鲁棒性上均有良好表现。
基金supported by the National ‘863’ Program of China under Grant(No.2011AA11A102)the New Century Excellent Talent Support Project of the Ministry of Education(No.NCET–11–0572)the State Key Laboratory of Rail Traffic Control and Safety(No.RCS2009ZT012)