期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
5
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于RGB-D融合的实时物体检测方法
1
作者
梅军辉
任栩蝶
葛昊
《信息技术》
2023年第4期29-34,40,共7页
随着深度学习技术在工业中的广泛应用,目标检测技术作为深度学习和机器视觉中的关键技术,也在越来越多的应用中成为基本的构建模块。为提升算法的鲁棒性,使其能更好地适应光照较弱和过度曝光等不利环境,使用RGB与深度数据融合的方式构...
随着深度学习技术在工业中的广泛应用,目标检测技术作为深度学习和机器视觉中的关键技术,也在越来越多的应用中成为基本的构建模块。为提升算法的鲁棒性,使其能更好地适应光照较弱和过度曝光等不利环境,使用RGB与深度数据融合的方式构建模型,并使用可分离卷积、预设框优化以及损失函数优化的方式提升算法的检测速度与精度。最后使用采集的数据进行训练和测试,验证方法的有效性。
展开更多
关键词
目标检测
深度卷积神经网络
rgb-d融合
可分离卷积
下载PDF
职称材料
基于RGB-D融合的密集遮挡抓取检测
被引量:
6
2
作者
李明
鹿朋
+2 位作者
朱龙
朱美强
邹亮
《控制与决策》
EI
CSCD
北大核心
2023年第10期2867-2874,共8页
针对当前抓取检测模型对密集遮挡物体的检测效果差以及人工数据标注工作量大的问题,提出基于RGB-D图像融合的目标检测与抓取检测分步骤进行的改进方案.新方案支持将单物体图像训练的抓取检测模型直接应用于密集遮挡的多物体图像场景中....
针对当前抓取检测模型对密集遮挡物体的检测效果差以及人工数据标注工作量大的问题,提出基于RGB-D图像融合的目标检测与抓取检测分步骤进行的改进方案.新方案支持将单物体图像训练的抓取检测模型直接应用于密集遮挡的多物体图像场景中.首先,考虑到密集遮挡场景下抓取物具有多尺度的特点,提出子阶段路径聚合(SPA)的多尺度特征融合模块,用于丰富RGB-D特征级别融合的目标检测模型SPA-YOLO-Fusion的高维语义特征信息,以便于检测模型定位所有的抓取物;其次,使用基于RGB-D像素级别融合的GR-ConvNet抓取检测模型估计每个物体的抓取点,并提出背景填充的图像预处理算法来降低密集遮挡物体的相互影响;最后,使用机械臂对目标点进行抓取.在LineMOD数据集上对目标检测模型进行测试,实验结果表明SPA-YOLO-Fusion的mAP比YOLOv3-tiny与YOLOv4-tiny分别提高了10%与7%.从实际场景中采集图像制作YODO_Grasp抓取检测数据集并进行测试,结果表明增加背景填充预处理算法的GR-ConvNet的抓取检测精度比原模型提高了23%.
展开更多
关键词
rgb-d融合
密集遮挡检测
多尺度检测
抓取检测
机械臂
深度学习
原文传递
一种基于邻域度量关系的RGB-D融合语义分割算法
被引量:
1
3
作者
张健
陈烨恒
+1 位作者
朱世强
李月华
《机器人》
EI
CSCD
北大核心
2023年第2期156-165,共10页
针对深空探测活动中地外环境复杂和计算资源受限,导致语义分割精度较低的问题,提出了一种基于邻域度量关系的RGB-D融合语义分割算法。该算法采用多模态的RGB-D信息取代传统的单目相机数据,并以中期融合框架构建基础网络,且额外设计了邻...
针对深空探测活动中地外环境复杂和计算资源受限,导致语义分割精度较低的问题,提出了一种基于邻域度量关系的RGB-D融合语义分割算法。该算法采用多模态的RGB-D信息取代传统的单目相机数据,并以中期融合框架构建基础网络,且额外设计了邻域度量关系模块来优化表现。具体来说,中期融合网络针对不同尺度的原始特征执行精炼、融合、跳接等操作,实现跨模态数据以及跨层级特征的有效互补。进一步地,结合语义特征图与语义标签,以不增加网络推理开销的方法构建邻域度量关系,从全局及局部特征中挖掘样本类别之间的关联信息,提升分割网络的性能。分别在室内数据集NYUDv2和火星模拟场地数据集MARSv1上进行实验,结果表明多模态RGB-D信息以及邻域度量关系均能显著提升语义分割的精度。
展开更多
关键词
深度学习
语义分割
rgb-d融合
邻域度量关系
原文传递
基于张量分解融合RGB-D图像的物体识别
被引量:
1
4
作者
余霆嵩
文元美
凌永权
《计算机工程与应用》
CSCD
北大核心
2019年第2期174-178,共5页
为了充分利用RGB-D图像的深度图像信息,提出了基于张量分解的物体识别方法。首先将RGB-D图像构造成一个四阶张量,然后将该四阶张量分解为一个核心张量和四个因子矩阵,再利用相应的因子矩阵将原张量进行投影,获得融合后的RGB-D数据,最后...
为了充分利用RGB-D图像的深度图像信息,提出了基于张量分解的物体识别方法。首先将RGB-D图像构造成一个四阶张量,然后将该四阶张量分解为一个核心张量和四个因子矩阵,再利用相应的因子矩阵将原张量进行投影,获得融合后的RGB-D数据,最后输入到卷积神经网络中进行识别。RGB-D数据集中三组相似物体的识别结果表明,利用张量分解融合RGB-D图像的物体识别准确率高于未采用张量分解的物体识别准确率,并且单一错分实例的准确率最高可提升99%。
展开更多
关键词
rgb-d
图像
融合
卷积神经网络
张量分解
Tucker分解
物体识别
下载PDF
职称材料
基于Transformer-CNN混合架构的跨模态融合抓取检测
5
作者
王勇
李邑灵
+2 位作者
苗夺谦
安春艳
袁鑫林
《控制与决策》
EI
CSCD
北大核心
2024年第11期3607-3616,共10页
在机器臂抓取检测领域,RGB图像和深度图像的处理效率仍有很大提升空间.鉴于此,提出一种基于Transformer-CNN混合架构的新型跨模态交互融合的机械臂抓取检测方法.为了充分利用RGB和深度图像的特征信息,开发一种高效的跨模态特征交互融合...
在机器臂抓取检测领域,RGB图像和深度图像的处理效率仍有很大提升空间.鉴于此,提出一种基于Transformer-CNN混合架构的新型跨模态交互融合的机械臂抓取检测方法.为了充分利用RGB和深度图像的特征信息,开发一种高效的跨模态特征交互融合模块,用来校准RGB和深度图像相对应的特征信息,并交互增强双模态的特征.此外,设计一种Transformer与CNN并行的网络模块,结合CNN的局部建模能力和Transformer的全局建模能力,获得更好的特征表示,从而提高抓取检测性能.实验结果表明,所提方法在Cornell与Jacquard抓取数据集上分别达到了99.1%和96.2%的准确率.在真实场景下的抓取检测实验验证了所提方法可以有效预测各种场景下物品的抓取位置.
展开更多
关键词
机械臂抓取检测
跨模态
rgb-d融合
TRANSFORMER
CNN
原文传递
题名
基于RGB-D融合的实时物体检测方法
1
作者
梅军辉
任栩蝶
葛昊
机构
上海联适导航技术股份有限公司
上海交通大学电子信息与电气工程学院
上海数迹智能科技有限公司
出处
《信息技术》
2023年第4期29-34,40,共7页
基金
上海市人工智能创新发展专项(2020-RGZN-02026)。
文摘
随着深度学习技术在工业中的广泛应用,目标检测技术作为深度学习和机器视觉中的关键技术,也在越来越多的应用中成为基本的构建模块。为提升算法的鲁棒性,使其能更好地适应光照较弱和过度曝光等不利环境,使用RGB与深度数据融合的方式构建模型,并使用可分离卷积、预设框优化以及损失函数优化的方式提升算法的检测速度与精度。最后使用采集的数据进行训练和测试,验证方法的有效性。
关键词
目标检测
深度卷积神经网络
rgb-d融合
可分离卷积
Keywords
object detection
deep convolutional neural network
rgb-d
fusion
separable convolution
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于RGB-D融合的密集遮挡抓取检测
被引量:
6
2
作者
李明
鹿朋
朱龙
朱美强
邹亮
机构
地下空间智能控制教育部工程中心
中国矿业大学信息与控制工程学院
出处
《控制与决策》
EI
CSCD
北大核心
2023年第10期2867-2874,共8页
基金
国家自然科学基金项目(51904297,61901003)。
文摘
针对当前抓取检测模型对密集遮挡物体的检测效果差以及人工数据标注工作量大的问题,提出基于RGB-D图像融合的目标检测与抓取检测分步骤进行的改进方案.新方案支持将单物体图像训练的抓取检测模型直接应用于密集遮挡的多物体图像场景中.首先,考虑到密集遮挡场景下抓取物具有多尺度的特点,提出子阶段路径聚合(SPA)的多尺度特征融合模块,用于丰富RGB-D特征级别融合的目标检测模型SPA-YOLO-Fusion的高维语义特征信息,以便于检测模型定位所有的抓取物;其次,使用基于RGB-D像素级别融合的GR-ConvNet抓取检测模型估计每个物体的抓取点,并提出背景填充的图像预处理算法来降低密集遮挡物体的相互影响;最后,使用机械臂对目标点进行抓取.在LineMOD数据集上对目标检测模型进行测试,实验结果表明SPA-YOLO-Fusion的mAP比YOLOv3-tiny与YOLOv4-tiny分别提高了10%与7%.从实际场景中采集图像制作YODO_Grasp抓取检测数据集并进行测试,结果表明增加背景填充预处理算法的GR-ConvNet的抓取检测精度比原模型提高了23%.
关键词
rgb-d融合
密集遮挡检测
多尺度检测
抓取检测
机械臂
深度学习
Keywords
rgb-d
fusion
densely occluded detection
multi-scale detection
grasp detection
manipulator
deep learning
分类号
TP911.73 [自动化与计算机技术]
TP391.4 [自动化与计算机技术—计算机应用技术]
原文传递
题名
一种基于邻域度量关系的RGB-D融合语义分割算法
被引量:
1
3
作者
张健
陈烨恒
朱世强
李月华
机构
之江实验室
出处
《机器人》
EI
CSCD
北大核心
2023年第2期156-165,共10页
基金
国家重点研发计划(2018AAA0102701)
国防科工局稳定支持科研项目(HTKJ2019KL502005)
+1 种基金
第67批中国博士后科学基金面上项目(2020M671825)
浙江省“万人计划”杰出人才项目(2019R51010)。
文摘
针对深空探测活动中地外环境复杂和计算资源受限,导致语义分割精度较低的问题,提出了一种基于邻域度量关系的RGB-D融合语义分割算法。该算法采用多模态的RGB-D信息取代传统的单目相机数据,并以中期融合框架构建基础网络,且额外设计了邻域度量关系模块来优化表现。具体来说,中期融合网络针对不同尺度的原始特征执行精炼、融合、跳接等操作,实现跨模态数据以及跨层级特征的有效互补。进一步地,结合语义特征图与语义标签,以不增加网络推理开销的方法构建邻域度量关系,从全局及局部特征中挖掘样本类别之间的关联信息,提升分割网络的性能。分别在室内数据集NYUDv2和火星模拟场地数据集MARSv1上进行实验,结果表明多模态RGB-D信息以及邻域度量关系均能显著提升语义分割的精度。
关键词
深度学习
语义分割
rgb-d融合
邻域度量关系
Keywords
deep learning
semantic segmentation
rgb-d
fusion
neighborhood metric relation
分类号
TP24 [自动化与计算机技术—检测技术与自动化装置]
原文传递
题名
基于张量分解融合RGB-D图像的物体识别
被引量:
1
4
作者
余霆嵩
文元美
凌永权
机构
广东工业大学信息工程学院
出处
《计算机工程与应用》
CSCD
北大核心
2019年第2期174-178,共5页
基金
国家自然科学基金(No.61372173
No.61671163
+2 种基金
No.11871168)
广东省自然科学基金(No.2018A030310593)
广东工业大学2017年中央财政支持地方高校发展专项资金项目(No.201707)
文摘
为了充分利用RGB-D图像的深度图像信息,提出了基于张量分解的物体识别方法。首先将RGB-D图像构造成一个四阶张量,然后将该四阶张量分解为一个核心张量和四个因子矩阵,再利用相应的因子矩阵将原张量进行投影,获得融合后的RGB-D数据,最后输入到卷积神经网络中进行识别。RGB-D数据集中三组相似物体的识别结果表明,利用张量分解融合RGB-D图像的物体识别准确率高于未采用张量分解的物体识别准确率,并且单一错分实例的准确率最高可提升99%。
关键词
rgb-d
图像
融合
卷积神经网络
张量分解
Tucker分解
物体识别
Keywords
rgb-d
image fusion
convolutional neural network
tensor decomposition
Tucker decomposition
object recognition
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于Transformer-CNN混合架构的跨模态融合抓取检测
5
作者
王勇
李邑灵
苗夺谦
安春艳
袁鑫林
机构
重庆理工大学两江人工智能学院
同济大学电子与信息工程学院
出处
《控制与决策》
EI
CSCD
北大核心
2024年第11期3607-3616,共10页
文摘
在机器臂抓取检测领域,RGB图像和深度图像的处理效率仍有很大提升空间.鉴于此,提出一种基于Transformer-CNN混合架构的新型跨模态交互融合的机械臂抓取检测方法.为了充分利用RGB和深度图像的特征信息,开发一种高效的跨模态特征交互融合模块,用来校准RGB和深度图像相对应的特征信息,并交互增强双模态的特征.此外,设计一种Transformer与CNN并行的网络模块,结合CNN的局部建模能力和Transformer的全局建模能力,获得更好的特征表示,从而提高抓取检测性能.实验结果表明,所提方法在Cornell与Jacquard抓取数据集上分别达到了99.1%和96.2%的准确率.在真实场景下的抓取检测实验验证了所提方法可以有效预测各种场景下物品的抓取位置.
关键词
机械臂抓取检测
跨模态
rgb-d融合
TRANSFORMER
CNN
Keywords
robotic grasping detection
cross-modal
rgb-d
fusion
Transformer
CNN
分类号
TP29 [自动化与计算机技术—检测技术与自动化装置]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于RGB-D融合的实时物体检测方法
梅军辉
任栩蝶
葛昊
《信息技术》
2023
0
下载PDF
职称材料
2
基于RGB-D融合的密集遮挡抓取检测
李明
鹿朋
朱龙
朱美强
邹亮
《控制与决策》
EI
CSCD
北大核心
2023
6
原文传递
3
一种基于邻域度量关系的RGB-D融合语义分割算法
张健
陈烨恒
朱世强
李月华
《机器人》
EI
CSCD
北大核心
2023
1
原文传递
4
基于张量分解融合RGB-D图像的物体识别
余霆嵩
文元美
凌永权
《计算机工程与应用》
CSCD
北大核心
2019
1
下载PDF
职称材料
5
基于Transformer-CNN混合架构的跨模态融合抓取检测
王勇
李邑灵
苗夺谦
安春艳
袁鑫林
《控制与决策》
EI
CSCD
北大核心
2024
0
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部