针对RGB(Red Green Blue)模态与热度模态信息表征形式不一致,特征信息无法有效挖掘、融合问题,提出了一种新的联合注意力强化网络-FCNet(Feature Sharpening and Cross-modal Feature Fusion Net)。首先,通过双维度注意力机制提升图像...针对RGB(Red Green Blue)模态与热度模态信息表征形式不一致,特征信息无法有效挖掘、融合问题,提出了一种新的联合注意力强化网络-FCNet(Feature Sharpening and Cross-modal Feature Fusion Net)。首先,通过双维度注意力机制提升图像特征映射能力;然后,利用跨模态特征融合机制捕获目标区域;最后,利用逐层解码结构消除背景干扰,优化检测目标。实验结果表明,该优化改进算法运算参数更少、运算时间更短,且模型整体检测性能均优于现有多模态检测模型性能。展开更多
针对利用平面特征计算RGB-D相机位姿时的求解退化问题,提出平面和直线融合的RGB-D视觉里程计(Plane-line-based RGB-D visual odometry,PLVO).首先,提出基于平面-直线混合关联图(Plane-line hybrid association graph,PLHAG)的多特征关...针对利用平面特征计算RGB-D相机位姿时的求解退化问题,提出平面和直线融合的RGB-D视觉里程计(Plane-line-based RGB-D visual odometry,PLVO).首先,提出基于平面-直线混合关联图(Plane-line hybrid association graph,PLHAG)的多特征关联方法,充分考虑平面和平面、平面和直线之间的几何关系,对平面和直线两类几何特征进行一体化关联.然后,提出基于平面和直线主辅相济、自适应融合的RGB-D相机位姿估计方法.具体来说,鉴于平面特征通常比直线特征具有更好的准确性和稳定性,通过自适应加权的方法,确保平面特征在位姿计算中的主导作用,而对平面特征无法约束的位姿自由度(Degree of freedom,DoF),使用直线特征进行补充,得到相机的6自由度位姿估计结果,从而实现两类特征的融合,解决了单纯使用平面特征求解位姿时的退化问题.最后,通过公开数据集上的定量实验以及真实室内环境下的机器人实验,验证了所提出方法的有效性.展开更多
文摘针对RGB(Red Green Blue)模态与热度模态信息表征形式不一致,特征信息无法有效挖掘、融合问题,提出了一种新的联合注意力强化网络-FCNet(Feature Sharpening and Cross-modal Feature Fusion Net)。首先,通过双维度注意力机制提升图像特征映射能力;然后,利用跨模态特征融合机制捕获目标区域;最后,利用逐层解码结构消除背景干扰,优化检测目标。实验结果表明,该优化改进算法运算参数更少、运算时间更短,且模型整体检测性能均优于现有多模态检测模型性能。
文摘针对利用平面特征计算RGB-D相机位姿时的求解退化问题,提出平面和直线融合的RGB-D视觉里程计(Plane-line-based RGB-D visual odometry,PLVO).首先,提出基于平面-直线混合关联图(Plane-line hybrid association graph,PLHAG)的多特征关联方法,充分考虑平面和平面、平面和直线之间的几何关系,对平面和直线两类几何特征进行一体化关联.然后,提出基于平面和直线主辅相济、自适应融合的RGB-D相机位姿估计方法.具体来说,鉴于平面特征通常比直线特征具有更好的准确性和稳定性,通过自适应加权的方法,确保平面特征在位姿计算中的主导作用,而对平面特征无法约束的位姿自由度(Degree of freedom,DoF),使用直线特征进行补充,得到相机的6自由度位姿估计结果,从而实现两类特征的融合,解决了单纯使用平面特征求解位姿时的退化问题.最后,通过公开数据集上的定量实验以及真实室内环境下的机器人实验,验证了所提出方法的有效性.