由于视觉SLAM(Simultaneous Localization and Mapping)算法研究多建立于静态环境中,使得在动态环境下的应用造成较大定位偏移,极大降低了系统的稳定性。针对该问题,该文在原有视觉SLAM算法的基础上结合深度学习方法,对环境可能存在的...由于视觉SLAM(Simultaneous Localization and Mapping)算法研究多建立于静态环境中,使得在动态环境下的应用造成较大定位偏移,极大降低了系统的稳定性。针对该问题,该文在原有视觉SLAM算法的基础上结合深度学习方法,对环境可能存在的动态目标进行特征点剔除,从而提升系统在动态环境下的鲁棒性。采用的视觉SLAM系统为ORB-SLAM3,深度学习方法为YOLOv5的实例分割算法,采用对目标模型mask轮廓内特征点的检测算法及多视角几何方法进行特征点剔除。首先利用并行通信,将SLAM系统获取到的帧数据传入YOLOv5系统中进行可能为动态目标的分割,然后将其分割结果传回SLAM系统进行跟踪建图。同时改进词袋加载模型,提升加载速度,最终构建动态环境的稠密地图,具备可靠的实时性。通过在TUM数据集上的实验评估,该方法对比原SLAM框架及现阶段经典动态环境研究均有提升,其在保证平均帧率不降低的前提下精度较ORB-SLAM3的RMSE平均提升近89%。实验结果表明,对动态环境下的视觉SLAM算法有效改进,极大提升了系统的鲁棒性及稳定性。展开更多
文摘由于视觉SLAM(Simultaneous Localization and Mapping)算法研究多建立于静态环境中,使得在动态环境下的应用造成较大定位偏移,极大降低了系统的稳定性。针对该问题,该文在原有视觉SLAM算法的基础上结合深度学习方法,对环境可能存在的动态目标进行特征点剔除,从而提升系统在动态环境下的鲁棒性。采用的视觉SLAM系统为ORB-SLAM3,深度学习方法为YOLOv5的实例分割算法,采用对目标模型mask轮廓内特征点的检测算法及多视角几何方法进行特征点剔除。首先利用并行通信,将SLAM系统获取到的帧数据传入YOLOv5系统中进行可能为动态目标的分割,然后将其分割结果传回SLAM系统进行跟踪建图。同时改进词袋加载模型,提升加载速度,最终构建动态环境的稠密地图,具备可靠的实时性。通过在TUM数据集上的实验评估,该方法对比原SLAM框架及现阶段经典动态环境研究均有提升,其在保证平均帧率不降低的前提下精度较ORB-SLAM3的RMSE平均提升近89%。实验结果表明,对动态环境下的视觉SLAM算法有效改进,极大提升了系统的鲁棒性及稳定性。