由于机器人在利用视觉传感器进行同步定位与建图(simultaneous localization and mapping,SLAM)的过程中未使用实例信息,对环境感知不充分,构建的地图精度低,因此,给出了一种融合目标检测和点云分割的视觉SLAM实例建图方法。首先,利用...由于机器人在利用视觉传感器进行同步定位与建图(simultaneous localization and mapping,SLAM)的过程中未使用实例信息,对环境感知不充分,构建的地图精度低,因此,给出了一种融合目标检测和点云分割的视觉SLAM实例建图方法。首先,利用改进的轻量级目标检测算法YOLOV4-tiny提取环境二维图像的实例信息;其次,给出一种点云分割的方法,将二维图像信息对应的三维点云进行物体实例分割,提升分割精度;最后,将分割后的实例导入ORB-SLAM2框架中,构建出具有实例信息的高精度点云地图。实验结果表明:改进后的YOLOV4-tiny目标检测算法在构建的数据集上检测的准确率提升8.1%,改进的点云分割方法与LCCP算法相比,物体平均分割率提升12.5%,真实环境下构建的实例地图精度优于ORB-SLAM2算法构建的地图。展开更多
文摘由于机器人在利用视觉传感器进行同步定位与建图(simultaneous localization and mapping,SLAM)的过程中未使用实例信息,对环境感知不充分,构建的地图精度低,因此,给出了一种融合目标检测和点云分割的视觉SLAM实例建图方法。首先,利用改进的轻量级目标检测算法YOLOV4-tiny提取环境二维图像的实例信息;其次,给出一种点云分割的方法,将二维图像信息对应的三维点云进行物体实例分割,提升分割精度;最后,将分割后的实例导入ORB-SLAM2框架中,构建出具有实例信息的高精度点云地图。实验结果表明:改进后的YOLOV4-tiny目标检测算法在构建的数据集上检测的准确率提升8.1%,改进的点云分割方法与LCCP算法相比,物体平均分割率提升12.5%,真实环境下构建的实例地图精度优于ORB-SLAM2算法构建的地图。