期刊文献+

基于位置依赖的密集融合的6D位姿估计方法 被引量:1

6D Pose Estimation Method Based on Position Dependent Dense Fusion
下载PDF
导出
摘要 基于RGBD的6D位姿估计方法的一个关键问题是如何进行彩色特征信息和深度特征信息的融合。先前的工作采用密集融合的方法,主要关注的是局部特征和全连接层提取的全局特征,忽略了远距离像素间的位置依赖关系。文章提出通过捕获像素间的位置关系,并将其与彩色特征图和几何特征图进行密集融合,最后逐像素预测物体的6D位姿。实验结果表明,该文的方法相比其他方法在YCB-Video数据集上获得更优的结果。 One of the key problems of the 6D pose estimation method based on RGBD is how to fuse the color feature information and depth feature information.Previous work used dense fusion method,mainly focused on local features and global features extracted from fully connected layer,ignoring the position dependence between remote pixels.The article proposes that by capturing the positional relationship between pixels and intensively fusing it with the color feature map and geometric feature map,the 6D pose of the object is predicted pixel by pixel.Experimental results show that the proposed method achieves better results than other methods on YCB-Video dataset.
作者 黄榕彬 HUANG Rongbin(Guangdong University of Technology,Guangzhou 510006,China)
机构地区 广东工业大学
出处 《现代信息科技》 2020年第22期16-19,共4页 Modern Information Technology
关键词 6D位姿估计 弱纹理 RGB-D 密集融合 6D pose estimation weak texture RGB-D dense fusion
  • 相关文献

同被引文献3

引证文献1

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部