期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
物流移动机器人的视觉全局定位方法研究
1
作者
朱守泰
李康宇
王西峰
《制造业自动化》
2024年第10期100-104,120,共6页
移动机器人为生产制造、仓储物流等领域提供了灵活度高、效率高和可靠性强的自动化物流解决方案。当机器人首次上线作业或位置发生跳变时,必须及时明确自身在全局坐标系下的位姿。以物流移动机器人在制造车间中的实际工程应用为导向,提...
移动机器人为生产制造、仓储物流等领域提供了灵活度高、效率高和可靠性强的自动化物流解决方案。当机器人首次上线作业或位置发生跳变时,必须及时明确自身在全局坐标系下的位姿。以物流移动机器人在制造车间中的实际工程应用为导向,提出了基于纯视觉信息的全局定位方法。基于实验分析,首先,构建了基于EfficientFormerV2中层特征的场景外观描述方法,以生成具有较强鲁棒性和表征性能的场景描述符。随后,通过图像配准输出匹配特征点,并采用随机抽样一致筛除错误匹配。最后,基于八点法实现了匹配图像对之间的基本矩阵解算。
展开更多
关键词
视觉全局定位
移动机器人
特征匹配
位置识别
下载PDF
职称材料
基于局部与全局描述符紧耦合联合决策的机器人分层式视觉位置识别方法
2
作者
李康宇
王西峰
朱守泰
《信息与控制》
CSCD
北大核心
2024年第3期400-415,共16页
视觉位置识别是移动机器人维持高精度定位和维护地图一致性的重要手段。然而,受视点和外观变化的双重干扰,位置识别问题仍然极具挑战性。本文提出了一种基于局部与全局描述符紧耦合联合决策的分层式视觉位置识别方法。该方法基于多任务...
视觉位置识别是移动机器人维持高精度定位和维护地图一致性的重要手段。然而,受视点和外观变化的双重干扰,位置识别问题仍然极具挑战性。本文提出了一种基于局部与全局描述符紧耦合联合决策的分层式视觉位置识别方法。该方法基于多任务知识蒸馏来学习描述符提取能力。经过良好训练的轻量化模型以紧耦合的形式同时提取图像的全局和局部描述符,并进一步实现局部描述符的二值化表示和词袋空间映射。在所构建的位置识别架构中,提出了分层式识别策略进行由粗到精的位置检索,并基于相位相关法分配全局和局部描述符的联合决策权重。在多项基准数据集上的评估结果证实,所提方法在可接受的匹配效率下实现了匹配性能的显著提升,在多种复杂环境下表现出较强的泛化性和鲁棒性。
展开更多
关键词
视觉位置识别
闭环检测
深度学习
视觉SLAM
场景识别
原文传递
题名
物流移动机器人的视觉全局定位方法研究
1
作者
朱守泰
李康宇
王西峰
机构
北京交通大学
中国机械科学研究总院集团有限公司
机科发展科技股份有限公司
出处
《制造业自动化》
2024年第10期100-104,120,共6页
文摘
移动机器人为生产制造、仓储物流等领域提供了灵活度高、效率高和可靠性强的自动化物流解决方案。当机器人首次上线作业或位置发生跳变时,必须及时明确自身在全局坐标系下的位姿。以物流移动机器人在制造车间中的实际工程应用为导向,提出了基于纯视觉信息的全局定位方法。基于实验分析,首先,构建了基于EfficientFormerV2中层特征的场景外观描述方法,以生成具有较强鲁棒性和表征性能的场景描述符。随后,通过图像配准输出匹配特征点,并采用随机抽样一致筛除错误匹配。最后,基于八点法实现了匹配图像对之间的基本矩阵解算。
关键词
视觉全局定位
移动机器人
特征匹配
位置识别
分类号
TP242.6 [自动化与计算机技术—检测技术与自动化装置]
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于局部与全局描述符紧耦合联合决策的机器人分层式视觉位置识别方法
2
作者
李康宇
王西峰
朱守泰
机构
中国机械科学研究总院集团有限公司
机科发展科技股份有限公司
北京交通大学
出处
《信息与控制》
CSCD
北大核心
2024年第3期400-415,共16页
基金
国家重点研发计划项目(2020YFB1313304)
文摘
视觉位置识别是移动机器人维持高精度定位和维护地图一致性的重要手段。然而,受视点和外观变化的双重干扰,位置识别问题仍然极具挑战性。本文提出了一种基于局部与全局描述符紧耦合联合决策的分层式视觉位置识别方法。该方法基于多任务知识蒸馏来学习描述符提取能力。经过良好训练的轻量化模型以紧耦合的形式同时提取图像的全局和局部描述符,并进一步实现局部描述符的二值化表示和词袋空间映射。在所构建的位置识别架构中,提出了分层式识别策略进行由粗到精的位置检索,并基于相位相关法分配全局和局部描述符的联合决策权重。在多项基准数据集上的评估结果证实,所提方法在可接受的匹配效率下实现了匹配性能的显著提升,在多种复杂环境下表现出较强的泛化性和鲁棒性。
关键词
视觉位置识别
闭环检测
深度学习
视觉SLAM
场景识别
Keywords
visual place recognition
loop closure detection
deep learning
visual SLAM
scene recognition
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
原文传递
题名
作者
出处
发文年
被引量
操作
1
物流移动机器人的视觉全局定位方法研究
朱守泰
李康宇
王西峰
《制造业自动化》
2024
0
下载PDF
职称材料
2
基于局部与全局描述符紧耦合联合决策的机器人分层式视觉位置识别方法
李康宇
王西峰
朱守泰
《信息与控制》
CSCD
北大核心
2024
0
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部