期刊文献+
共找到314篇文章
< 1 2 16 >
每页显示 20 50 100
Visual SLAM Based on Object Detection Network:A Review
1
作者 Jiansheng Peng Dunhua Chen +3 位作者 Qing Yang Chengjun Yang Yong Xu Yong Qin 《Computers, Materials & Continua》 SCIE EI 2023年第12期3209-3236,共28页
Visual simultaneous localization and mapping(SLAM)is crucial in robotics and autonomous driving.However,traditional visual SLAM faces challenges in dynamic environments.To address this issue,researchers have proposed ... Visual simultaneous localization and mapping(SLAM)is crucial in robotics and autonomous driving.However,traditional visual SLAM faces challenges in dynamic environments.To address this issue,researchers have proposed semantic SLAM,which combines object detection,semantic segmentation,instance segmentation,and visual SLAM.Despite the growing body of literature on semantic SLAM,there is currently a lack of comprehensive research on the integration of object detection and visual SLAM.Therefore,this study aims to gather information from multiple databases and review relevant literature using specific keywords.It focuses on visual SLAM based on object detection,covering different aspects.Firstly,it discusses the current research status and challenges in this field,highlighting methods for incorporating semantic information from object detection networks into mileage measurement,closed-loop detection,and map construction.It also compares the characteristics and performance of various visual SLAM object detection algorithms.Lastly,it provides an outlook on future research directions and emerging trends in visual SLAM.Research has shown that visual SLAM based on object detection has significant improvements compared to traditional SLAM in dynamic point removal,data association,point cloud segmentation,and other technologies.It can improve the robustness and accuracy of the entire SLAM system and can run in real time.With the continuous optimization of algorithms and the improvement of hardware level,object visual SLAM has great potential for development. 展开更多
关键词 Object detection visual slam visual odometry loop closure detection semantic map
下载PDF
Visual SLAM in dynamic environments based on object detection 被引量:7
2
作者 Yong-bao Ai Ting Rui +4 位作者 Xiao-qiang Yang Jia-lin He Lei Fu Jian-bin Li Ming Lu 《Defence Technology(防务技术)》 SCIE EI CAS CSCD 2021年第5期1712-1721,共10页
A great number of visual simultaneous localization and mapping(VSLAM)systems need to assume static features in the environment.However,moving objects can vastly impair the performance of a VSLAM system which relies on... A great number of visual simultaneous localization and mapping(VSLAM)systems need to assume static features in the environment.However,moving objects can vastly impair the performance of a VSLAM system which relies on the static-world assumption.To cope with this challenging topic,a real-time and robust VSLAM system based on ORB-SLAM2 for dynamic environments was proposed.To reduce the influence of dynamic content,we incorporate the deep-learning-based object detection method in the visual odometry,then the dynamic object probability model is added to raise the efficiency of object detection deep neural network and enhance the real-time performance of our system.Experiment with both on the TUM and KITTI benchmark dataset,as well as in a real-world environment,the results clarify that our method can significantly reduce the tracking error or drift,enhance the robustness,accuracy and stability of the VSLAM system in dynamic scenes. 展开更多
关键词 visual slam Object detection Dynamic object probability model Dynamic environments
下载PDF
Collaborative visual SLAM for multiple agents:A brief survey 被引量:3
3
作者 Danping ZOU Ping TAN Wenxian YU 《Virtual Reality & Intelligent Hardware》 2019年第5期461-482,共22页
This article presents a brief survey to visual simultaneous localization and mapping (SLAM) systems applied to multiple independently moving agents, such as a team of ground or aerial vehicles, a group of users holdin... This article presents a brief survey to visual simultaneous localization and mapping (SLAM) systems applied to multiple independently moving agents, such as a team of ground or aerial vehicles, a group of users holding augmented or virtual reality devices. Such visual SLAM system, name as collaborative visual SLAM, is different from a typical visual SLAM deployed on a single agent in that information is exchanged or shared among different agents to achieve better robustness, efficiency, and accuracy. We review the representative works on this topic proposed in the past ten years and describe the key components involved in designing such a system including collaborative pose estimation and mapping tasks, as well as the emerging topic of decentralized architecture. We believe this brief survey could be helpful to someone who are working on this topic or developing multi-agent applications, particularly micro-aerial vehicle swarm or collaborative augmented/virtual reality. 展开更多
关键词 visual slam Multiple agent UAV swarm Collaborative AR/VR
下载PDF
Motion estimation based feature selection for visual SLAM
4
作者 孟旭炯 Jiang Rongxin Zhou Fan Chen Yaowu 《High Technology Letters》 EI CAS 2011年第4期433-438,共6页
关键词 特征选择 运动估计 slam 视觉 位置估计 时间价值 迭代算法 模型估计
下载PDF
图像语义信息在视觉SLAM中的应用研究进展
5
作者 郭迟 刘阳 +2 位作者 罗亚荣 刘经南 张全 《测绘学报》 EI CSCD 北大核心 2024年第6期1057-1076,共20页
视觉同步定位与建图(visual simultaneous localization and mapping,VSLAM)技术以相机为主要传感器采集图像数据,基于多视几何、状态估计等算法原理获取载体的位置和姿态,同时构建一张用于导航定位的地图。视觉SLAM是自动驾驶、AR(augm... 视觉同步定位与建图(visual simultaneous localization and mapping,VSLAM)技术以相机为主要传感器采集图像数据,基于多视几何、状态估计等算法原理获取载体的位置和姿态,同时构建一张用于导航定位的地图。视觉SLAM是自动驾驶、AR(augmented reality)、VR(virtual reality)、MR(mix reality)、智能机器人、无人机飞控中的关键技术。近年来,随着各个产业对智能导航定位的需求日渐增多,原本以几何测量为主的视觉SLAM逐渐融入对环境的语义理解。语义信息是指能够被人类直观感受和理解的概念,而图像语义信息是指图像中物体的轮廓、类别、显著性等信息。相比于图像中的几何特征,语义信息更具时空一致性,且更贴近人类感知的结果。将图像语义信息引入视觉SLAM,既能促进系统各个模块的性能,还能够提升视觉SLAM的智能感知能力,形成集几何测量、定位定姿、环境理解等多种功能的视觉语义SLAM。本文根据图像语义信息的应用方式,对视觉语义SLAM经典方案和最新研究进展进行归纳梳理。在此基础上,本文总结了视觉语义SLAM的现存问题与挑战,指出该领域未来的研究方向,以推动其面向智能导航定位进一步发展。 展开更多
关键词 视觉slam 视觉语义slam 深度学习 智能导航定位
下载PDF
动态场景下基于3D多目标追踪的实时视觉SLAM方法研究
6
作者 陈吉清 车宇翔 +2 位作者 田小强 兰凤崇 周云郊 《汽车工程》 EI CSCD 北大核心 2024年第5期776-783,共8页
近年来一些解决动态场景下的SLAM技术被提出,其中SLAM与MOT结合的技术路线不仅可解决动态场景问题,还可以提高系统对周围场景的理解,获得了更大关注。本文介绍了一种高效的实时在线视觉SLAMMOT融合系统,以双目视觉或RGBD作为输入,只须借... 近年来一些解决动态场景下的SLAM技术被提出,其中SLAM与MOT结合的技术路线不仅可解决动态场景问题,还可以提高系统对周围场景的理解,获得了更大关注。本文介绍了一种高效的实时在线视觉SLAMMOT融合系统,以双目视觉或RGBD作为输入,只须借助2D目标检测网络,便能高效、准确、鲁棒地跟踪相机以及动态目标的位姿,并生成稀疏点云地图。为提高多动态目标追踪的精度与准确度,引入了级联匹配与IOU匹配结合的策略;利用阿克曼转向模型来简化追踪目标的运动,减少求解动态目标位姿所需匹配点的数量;利用因子图将相机与动态目标的追踪结果进行联合优化,同时提高相机、追踪目标的位姿和地图点的精度。最后在KITTI跟踪数据集上与其他方法进行比较。结果表明,在满足实时性要求的前提下,该方法仍能准确地追踪相机以及动态目标位姿。 展开更多
关键词 视觉slam 动态场景 多目标追踪 实时系统
下载PDF
动态环境下基于深度学习的视觉SLAM研究综述
7
作者 罗元 沈吉祥 李方宇 《半导体光电》 CAS 北大核心 2024年第1期1-10,共10页
目前的同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)研究大多是基于静态场景的假设,而实际生活中动态物体是不可避免的。在视觉SLAM系统中加入深度学习,可以协同剔除场景中的动态物体,有效提升视觉SLAM在动态环境... 目前的同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)研究大多是基于静态场景的假设,而实际生活中动态物体是不可避免的。在视觉SLAM系统中加入深度学习,可以协同剔除场景中的动态物体,有效提升视觉SLAM在动态环境下的鲁棒性。文章首先介绍了动态环境下基于深度学习的视觉SLAM分类,然后详细介绍了基于目标检测、基于语义分割和基于实例分割的视觉SLAM,并对它们进行了分析比较。最后,结合近年来视觉SLAM的发展趋势,通过对动态环境下基于深度学习的视觉SLAM存在的主要问题进行分析,总结了未来可能的发展方向。 展开更多
关键词 视觉同时定位与地图构建 深度学习 动态环境 语义信息
下载PDF
基于特征点改进的视觉SLAM定位研究
8
作者 王伟 汤琴琴 汪先伟 《计算机测量与控制》 2024年第2期219-226,共8页
为改善视觉SLAM系统在低纹理环境下定位精度较低的现象,提出一种改进的ORB特征点提取策略和一种关键帧选择机制;首先采用多尺度分析和基于局部灰度的特征检测方法克服一般ORB算法缺乏尺度和旋转描述的缺点;其次提出一种基于高斯模糊的... 为改善视觉SLAM系统在低纹理环境下定位精度较低的现象,提出一种改进的ORB特征点提取策略和一种关键帧选择机制;首先采用多尺度分析和基于局部灰度的特征检测方法克服一般ORB算法缺乏尺度和旋转描述的缺点;其次提出一种基于高斯模糊的图像信息增强方法解决传统ORB特征点提取方法在纹理信息不被突出环境下容易失效的问题,并对图像进行象限分割使特征点均匀分布;最后为剔除劣质关键帧,设计了一种综合时间因素与特征点数量因素的关键帧选择机制;将提出的方法移植到ORB_SLAM2上,并在TUM数据集上测试,实验结果表明,视觉SLAM系统的定位误差平均降低14.688%,证实了该方法的有效性。 展开更多
关键词 视觉slam 低纹理 特征点 关键帧 定位
下载PDF
基于图优化的GNSS/双目视觉/惯性SLAM系统开发及应用
9
作者 夏琳琳 宋梓维 +1 位作者 方亮 孙伍虹志 《中国惯性技术学报》 EI CSCD 北大核心 2024年第5期475-483,共9页
为提高机器人室外长航时定位精度,提出一种基于图优化的全球导航卫星系统(GNSS)/双目视觉/惯性同时定位与建图(SLAM)系统开发及应用。将空间中的线特征作为几何约束的补充,集成至前端的特征提取及后端的位姿优化线程,提升位姿解算精度... 为提高机器人室外长航时定位精度,提出一种基于图优化的全球导航卫星系统(GNSS)/双目视觉/惯性同时定位与建图(SLAM)系统开发及应用。将空间中的线特征作为几何约束的补充,集成至前端的特征提取及后端的位姿优化线程,提升位姿解算精度。同时,以因子图构建联合优化的图结构,并推导出全局观测误差模型。近200 m的BullDog-CX机器人巡检结果表明,所提算法相比于VINSFusion和PL-VINS分别取得约12.6%及3.4%的定位精度提升,为室外机器人长航时导航提供了一种可行方案。 展开更多
关键词 GNSS/双目视觉/惯性slam系统 图优化 线特征约束 全局观测 多传感器融合
下载PDF
多目鱼眼视觉SLAM特征点误匹配的剔除优化 被引量:1
10
作者 陈坚炜 何元烈 +1 位作者 何铭臻 刘峰 《大连工业大学学报》 CAS 2024年第1期61-72,共12页
为了解决由于鱼眼图像显著失真和明显的视角差异而导致的定位精度下降的问题,提出了一种去除多目鱼眼视觉SLAM系统中误匹配特征点的策略。该策略采用从粗到细的误匹配特征点去除过程,在粗匹配阶段,使用阈值为0.6的匹配算法获得粗匹配阶... 为了解决由于鱼眼图像显著失真和明显的视角差异而导致的定位精度下降的问题,提出了一种去除多目鱼眼视觉SLAM系统中误匹配特征点的策略。该策略采用从粗到细的误匹配特征点去除过程,在粗匹配阶段,使用阈值为0.6的匹配算法获得粗匹配阶段的初始点集。在精细去除阶段,采用预校准的多摄像机模型将匹配的特征点转换为同一坐标系,并将其作为承载向量投影到单位球上,利用球上的外极约束去除不匹配的特征点。在去除不匹配的特征点后,在投影球面上建立重投影误差函数,对初始姿态点和映射点进行非线性优化。该策略在24 000张鱼眼图像上进行了测试,结果表明,该剔除策略显著降低了失配率,提高了初始化和定位精度,有效地提高了系统的定位精度和性能效率。 展开更多
关键词 视觉slam 多目鱼眼相机 误匹配剔除 对极约束
下载PDF
动态场景下基于语义分割的视觉SLAM方法 被引量:1
11
作者 杜晓英 袁庆霓 +3 位作者 齐建友 王晨 杜飞龙 任澳 《计算机工程》 CAS CSCD 北大核心 2024年第3期242-249,共8页
针对在动态场景下视觉同步定位与建图(SLAM)鲁棒性差、定位与建图精度易受动态物体干扰的问题,设计一种基于改进DeepLabv3plus与多视图几何的语义视觉SLAM算法。以语义分割网络DeepLabv3plus为基础,采用轻量级卷积网络MobileNetV2进行... 针对在动态场景下视觉同步定位与建图(SLAM)鲁棒性差、定位与建图精度易受动态物体干扰的问题,设计一种基于改进DeepLabv3plus与多视图几何的语义视觉SLAM算法。以语义分割网络DeepLabv3plus为基础,采用轻量级卷积网络MobileNetV2进行特征提取,并使用深度可分离卷积代替空洞空间金字塔池化模块中的标准卷积,同时引入注意力机制,提出改进的语义分割网络DeepLabv3plus。将改进后的语义分割网络DeepLabv3plus与多视图几何结合,提出动态点检测方法,以提高视觉SLAM在动态场景下的鲁棒性。在此基础上,构建包含语义信息和几何信息的三维语义静态地图。在TUM数据集上的实验结果表明,与ORB-SLAM2相比,该算法在高动态序列下的绝对轨迹误差的均方根误差值和标准差(SD)值最高分别提升98%和97%。 展开更多
关键词 DeepLabv3plus网络 视觉同步定位与建图 多视图几何 动态场景 语义地图
下载PDF
一种特征点权重自适应优化的动态SLAM算法
12
作者 张岩 王红旗 +2 位作者 刘群坡 卜旭辉 赵怡佳 《导航定位学报》 CSCD 北大核心 2024年第3期165-175,共11页
针对传统的同步定位与地图构建(SLAM)在动态场景中位姿估计准确率低、鲁棒性差的问题,提出一种基于特征点权重自适应优化的动态视觉SLAM算法。首先,利用掩膜区域卷积神经网络(Mask R-CNN)对输入图像进行语义分割并获取动态特征点掩码,... 针对传统的同步定位与地图构建(SLAM)在动态场景中位姿估计准确率低、鲁棒性差的问题,提出一种基于特征点权重自适应优化的动态视觉SLAM算法。首先,利用掩膜区域卷积神经网络(Mask R-CNN)对输入图像进行语义分割并获取动态特征点掩码,在此基础上对静态特征点进行帧间匹配得到位姿变换初值;然后利用运动一致性检测算法和多视图几何算法处理图像并分别得到对应的动态特征点掩码,进而依据得到的3种动态特征点掩码信息构建特征点权重函数,利用最小化重投影误差自适应调整特征点对位姿优化的影响程度,降低场景中的动态目标对SLAM精度的影响;最后使用慕尼黑工业大学动态数据集进行仿真测试,在室内高动态场景中,绝对轨迹误差(ATE)的均方根误差值(RMSE)仅为尺度不变特征变换同步定位与地图构建(ORB-SLAM2)的3.1%。与DS-SLAM、DynaSLAM等动态SLAM系统相比,绝对轨迹误差分别为DS-SLAM的52%、DynaSLAM的86.1%。结果表明,该算法可以显著提高SLAM系统在高动态环境下的定位精度和鲁棒性。 展开更多
关键词 视觉slam 动态场景 语义分割 运动一致性检测 多视图几何 特征点权重
下载PDF
改进ORB提取匹配算法的SLAM应用研究
13
作者 张钧程 柯福阳 王旭 《电子测量技术》 北大核心 2024年第3期91-101,共11页
由于传统的ORB特征点提取匹配方法在图像纹理信息不丰富或者光照变化剧烈时极易产生特征点丢失、分布不均等问题,不利于SLAM系统的定位与建图。为此本文提出了一套较为鲁棒、精度较高的提取匹配算法。首先基于ORB特征点对其提取算法进... 由于传统的ORB特征点提取匹配方法在图像纹理信息不丰富或者光照变化剧烈时极易产生特征点丢失、分布不均等问题,不利于SLAM系统的定位与建图。为此本文提出了一套较为鲁棒、精度较高的提取匹配算法。首先基于ORB特征点对其提取算法进行改进,计算自适应阈值并基于网格模型提取特征点,可提高特征点提取的鲁棒性并使其分布均匀。此外还提出了G-R图像匹配算法,基于网格特征计算邻域支持估计量来区分正误匹配点,再结合引入评价函数的RANSAC算法进一步剔除误匹配点,相比ORB-SLAM2原始匹配算法提高匹配精度9.36%,并减少时间消耗约13.6%。最后将本文提出的特征点提取匹配算法加入到ORB-SLAM2算法框架,经数据集与实际场景验证本文方法能有效提高ORB-SLAM2系统定位精度36.6%以上,使系统更具鲁棒性。 展开更多
关键词 数字图像处理 ORB特征点 视觉slam 四叉树 GMS匹配
下载PDF
基于深度学习的移动机器人语义SLAM方法研究 被引量:2
14
作者 王立鹏 张佳鹏 +2 位作者 张智 王学武 齐尧 《哈尔滨工程大学学报》 EI CAS CSCD 北大核心 2024年第2期306-313,共8页
为了给移动机器人提供细节丰富的三维语义地图,支撑机器人的精准定位,本文提出一种结合RGB-D信息与深度学习结果的机器人语义同步定位与建图方法。改进了ORB-SLAM2算法的框架,提出一种可以构建稠密点云地图的视觉同步定位与建图系统;将... 为了给移动机器人提供细节丰富的三维语义地图,支撑机器人的精准定位,本文提出一种结合RGB-D信息与深度学习结果的机器人语义同步定位与建图方法。改进了ORB-SLAM2算法的框架,提出一种可以构建稠密点云地图的视觉同步定位与建图系统;将深度学习的目标检测算法YOLO v5与视觉同步定位与建图系统融合,反映射为三维点云语义标签,结合点云分割完成数据关联和物体模型更新,并用八叉树的地图形式存储地图信息;基于移动机器人平台,在实验室环境下开展移动机器人三维语义同步定位与建图实验,实验结果验证了本文语义同步定位与建图算法的语义信息映射、点云分割与语义信息匹配以及三维语义地图构建的有效性。 展开更多
关键词 移动机器人 深度学习 视觉同步定位与建图 目标识别 点云分割 数据关联 八叉树 语义地图
下载PDF
基于动态特征点匹配方法的室内环境SLAM研究
15
作者 徐晨星 连晓峰 +1 位作者 罗海勇 谭励 《计算机仿真》 2024年第4期245-249,共5页
主要针对在动态环境下如何有效剔除动态物体以便构建更为准确的室内环境语义地图这一问题,提出一种在借鉴ORB-SLAM3的基础上,通过增加视频图像关键帧选择机制并计算图像帧中特征点切换概率的方法来实现动态场景下的语义语义地图构建。首... 主要针对在动态环境下如何有效剔除动态物体以便构建更为准确的室内环境语义地图这一问题,提出一种在借鉴ORB-SLAM3的基础上,通过增加视频图像关键帧选择机制并计算图像帧中特征点切换概率的方法来实现动态场景下的语义语义地图构建。首先,简化原有ORB-SLAM3的架构,仅以单目视觉作为图像数据源;其次,为减少计算量,在一组连续图像帧中通过一种评价选择机制来选取关键帧进行处理;接着为剔除动态物体,采用一种切换概率方法来计算特征点的动态变化,并通过MASK R-CNN进行分割,最终实现实时语义地图构建。实验结果表明,所提方法具有准确性与实时性。上述方法在动态场景下的绝对轨迹误差与相对姿态误差均有极大的改善,可实现准确剔除动态物体以解决跟踪丢失问题,且在室内动态场景下的绝对轨迹误差与相对姿态误差均有较大改善,且能满足系统运行的实时性要求。 展开更多
关键词 视觉同步定位与地图构建 室内动态环境 切换概率 语义地图
下载PDF
动态场景下基于YOLOv5和几何约束的视觉SLAM算法
16
作者 王鸿宇 吴岳忠 +1 位作者 陈玲姣 陈茜 《包装工程》 CAS 北大核心 2024年第3期208-217,共10页
目的移动智能体在执行同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)的复杂任务时,动态物体的干扰会导致特征点间的关联减弱,系统定位精度下降,为此提出一种面向室内动态场景下基于YOLOv5和几何约束的视觉SLAM算法... 目的移动智能体在执行同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)的复杂任务时,动态物体的干扰会导致特征点间的关联减弱,系统定位精度下降,为此提出一种面向室内动态场景下基于YOLOv5和几何约束的视觉SLAM算法。方法首先,以YOLOv5s为基础,将原有的CSPDarknet主干网络替换成轻量级的MobileNetV3网络,可以减少参数、加快运行速度,同时与ORB-SLAM2系统相结合,在提取ORB特征点的同时获取语义信息,并剔除先验的动态特征点。然后,结合光流法和对极几何约束对可能残存的动态特征点进一步剔除。最后,仅用静态特征点对相机位姿进行估计。结果在TUM数据集上的实验结果表明,与ORB-SLAM2相比,在高动态序列下的ATE和RPE都减少了90%以上,与DS-SLAM、Dyna-SLAM同类型系统相比,在保证定位精度和鲁棒性的同时,跟踪线程中处理一帧图像平均只需28.26 ms。结论该算法能够有效降低动态物体对实时SLAM过程造成的干扰,为实现更加智能化、自动化的包装流程提供了可能。 展开更多
关键词 视觉slam 动态场景 目标检测 光流法 对极几何约束
下载PDF
面向实际场景SLAM应用的光照适应性研究
17
作者 柯福阳 陆佳嘉 +2 位作者 杭琦琳 宋宝 陈伟超 《南京信息工程大学学报(自然科学版)》 CAS 北大核心 2024年第1期128-136,共9页
为探究环境感知设备在SLAM算法应用过程中的光照适应性问题,在不同光照强度下分别进行激光雷达和深度相机SLAM算法的验证性评估实验.基于四轮差速机器人,搭载16线激光雷达和深度相机,结合LOAM(Lidar Odometry And Mapping)和RTAB-MAP(Re... 为探究环境感知设备在SLAM算法应用过程中的光照适应性问题,在不同光照强度下分别进行激光雷达和深度相机SLAM算法的验证性评估实验.基于四轮差速机器人,搭载16线激光雷达和深度相机,结合LOAM(Lidar Odometry And Mapping)和RTAB-MAP(Real-Time Appearance-Based Mapping)算法,分别在明暗环境中分析验证设备光照适应性.实验结果表明:在明亮环境下,基于视觉SLAM和激光SLAM系统偏差的中误差分别为0.203和0.644 m;在黑暗环境中两者偏差的中误差分别为0.282和0.683 m;深度相机在明、暗环境中的定位建图效果均优于激光雷达,深度相机的光照适应性更强. 展开更多
关键词 激光slam 视觉slam RTAB-MAP算法 LOAM算法
下载PDF
动态环境下融合实例分割的视觉SLAM优化方法
18
作者 贾丛晨 肖建 《计算机技术与发展》 2024年第6期89-95,共7页
由于视觉SLAM(Simultaneous Localization and Mapping)算法研究多建立于静态环境中,使得在动态环境下的应用造成较大定位偏移,极大降低了系统的稳定性。针对该问题,该文在原有视觉SLAM算法的基础上结合深度学习方法,对环境可能存在的... 由于视觉SLAM(Simultaneous Localization and Mapping)算法研究多建立于静态环境中,使得在动态环境下的应用造成较大定位偏移,极大降低了系统的稳定性。针对该问题,该文在原有视觉SLAM算法的基础上结合深度学习方法,对环境可能存在的动态目标进行特征点剔除,从而提升系统在动态环境下的鲁棒性。采用的视觉SLAM系统为ORB-SLAM3,深度学习方法为YOLOv5的实例分割算法,采用对目标模型mask轮廓内特征点的检测算法及多视角几何方法进行特征点剔除。首先利用并行通信,将SLAM系统获取到的帧数据传入YOLOv5系统中进行可能为动态目标的分割,然后将其分割结果传回SLAM系统进行跟踪建图。同时改进词袋加载模型,提升加载速度,最终构建动态环境的稠密地图,具备可靠的实时性。通过在TUM数据集上的实验评估,该方法对比原SLAM框架及现阶段经典动态环境研究均有提升,其在保证平均帧率不降低的前提下精度较ORB-SLAM3的RMSE平均提升近89%。实验结果表明,对动态环境下的视觉SLAM算法有效改进,极大提升了系统的鲁棒性及稳定性。 展开更多
关键词 动态环境 视觉slam 特征点检测 实例分割 稠密建图
下载PDF
一种基于线特征约束的无人机双目视觉SLAM算法
19
作者 金凌云 王从庆 李宏光 《电光与控制》 CSCD 北大核心 2024年第4期1-5,共5页
为了解决点特征SLAM算法在低纹理环境中精度下降的问题,提出了一种基于线特征约束的无人机双目视觉SLAM算法。首先,将双目相机观测线特征分为单目相机在两帧下观测、双目相机在两帧下观测、双目相机在一帧下观测3种情况;然后,计算了3种... 为了解决点特征SLAM算法在低纹理环境中精度下降的问题,提出了一种基于线特征约束的无人机双目视觉SLAM算法。首先,将双目相机观测线特征分为单目相机在两帧下观测、双目相机在两帧下观测、双目相机在一帧下观测3种情况;然后,计算了3种情况下的残差块和雅可比矩阵;最后,利用所提线特征约束改进了VINS-Fusion算法。在EuRoC数据集上进行实验验证,结果表明提出的算法在数据集半数以上的场景中都有良好的表现,相较于改进前的VINS-Fusion算法定位精度平均提升13.2%。 展开更多
关键词 slam 视觉惯性里程计 双目线特征 非线性优化
下载PDF
基于大场景下识别动态物体的视觉SLAM研究
20
作者 李兴州 何锋 余国宽 《建模与仿真》 2024年第4期4180-4194,共15页
目前轮式机器人基于YOLOv5的视觉SLAM算法并没有融合IMU解决大场景下鲁棒性较差的问题。利用目前较为先进的YOLOv7动态目标检测算法,将其与ORB_SLAM3算法的IMU数据融合,根据其检测的特征点判断是否为动态目标,保证其在动态场景下稳定工... 目前轮式机器人基于YOLOv5的视觉SLAM算法并没有融合IMU解决大场景下鲁棒性较差的问题。利用目前较为先进的YOLOv7动态目标检测算法,将其与ORB_SLAM3算法的IMU数据融合,根据其检测的特征点判断是否为动态目标,保证其在动态场景下稳定工作。通过仿真分析,在TUM-VI数据集的动态场景下剔除动态目标特征点稳定,在Mono-IMU和Stereo-IMU两种模式下绝对误差精度平均提高30%以上,相对误差精度平均提升20%以上。因此,本文所采用的方法在大场景且存在动态物体的情况下提高了定位与建图精度。 展开更多
关键词 视觉slam 动态场景 YOLOv7 动态目标点
原文传递
上一页 1 2 16 下一页 到第
使用帮助 返回顶部