摘要
【目的】视觉SLAM算法受光照强弱或低纹理等场景的影响,导致产生特征提取鲁棒性差、位姿计算精度低等问题,为解决上述问题展开针对性研究。【方法】研究团队提出基于改进ORB-SLAM2的SuperPoint-SLAM算法模型,将ORBSLAM中的特征匹配模块替换成基于SuperPoint网络的特征匹配,并据此进行特征跟踪、局部建图、关键帧识别、回环检测、位姿估计。将改进后SLAM算法与ORB-SLAM2算法分别在freiburg3_sitting_xyz与freiburg3_walking_xyz_validation两个数据集进行训练验证。【结果】SuperPoint-SLAM算法在动态环境中具有比ORB-SLAM2更高的定位精度,在特征点提取数量上提升近50%,轨迹误差减少0.008 m,而且在强弱光照条件下,基于SuperPoint网络的单目SLAM相较ORB-SLAM2有更强的鲁棒性。【结论】研究团队将利用Kinect2.0,基于SuperPoint与ORB-SLAM2,进一步进行稠密地图构建,实现机器人导航。