期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
7
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
融合BlendMask的机械手臂抓取位姿估计模型
1
作者
刘家东
费博文
+1 位作者
万子豪
胡建华
《机电工程技术》
2024年第6期74-78,118,共6页
针对复杂场景抓取位姿估计速度慢、精度低的问题,基于BlendMask实例分割网络,结合实例分割与抓取位姿估计,设计了一种端到端的机械手臂抓取位姿估计深度模型GPNet。该模型首先依据图像2D信息,在BlendMask网络中增加抓取中心、抓取主方...
针对复杂场景抓取位姿估计速度慢、精度低的问题,基于BlendMask实例分割网络,结合实例分割与抓取位姿估计,设计了一种端到端的机械手臂抓取位姿估计深度模型GPNet。该模型首先依据图像2D信息,在BlendMask网络中增加抓取中心、抓取主方向估计分支,提升抓取位姿估计速度;其次采用霍夫投票获取抓取中心及主方向,提高了2D抓取位姿估计的精度与鲁棒性;然后采用椭圆筛选机制,有效地解决了由圆形物体任意性对抓取主方向估计的干扰;最后依据新的损失函数训练GPNet,并结合图像深度信息获得最终抓取位姿信息。以中国信息通信研究院工业互联网平台、工业和信息化部重点实验室抓取实验场景为对象进行抓取速度与精度验证,以9种物体为抓取目标,结果表明在平均每个场景6种抓取目标实例且有干扰物体遮挡的复杂场景下,所提模型位姿估计平均速度达到0.057 s,平均抓取成功率达到90.2%。
展开更多
关键词
抓取
位姿
估计
BlendMask
端到端
椭圆筛选
霍夫投票
下载PDF
职称材料
基于深度学习的机械臂抓取姿态估计实验设计
被引量:
2
2
作者
辛菁
龚爱玲
+3 位作者
赵永红
穆凌霞
弋英民
张晓晖
《实验室研究与探索》
CAS
北大核心
2023年第2期1-4,30,共5页
为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提...
为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提高抓取姿态估计的准确率。在Cornell数据集和JACQUARD数据集上进行了比较性实验。结果表明,相比于基本的GGCNN模型,SE-GGCNN模型在保证实时性的同时,将IoU指标值由原先的76%提升至82%;对于数据集中未出现过的新对象具备很好的鲁棒性和自适应性;单张图片115 ms的检测用时表明所提出的方法适合实时应用,提升了未知物体抓取姿态估计的准确率。
展开更多
关键词
机械臂
深度学习
最优
抓取
姿态
估计
注意力机制
下载PDF
职称材料
基于PointNet++的机器人抓取姿态估计
被引量:
3
3
作者
阮国强
曹雏清
《仪表技术与传感器》
CSCD
北大核心
2023年第5期44-48,共5页
为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转...
为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转变成4自由度问题处理,从而简化学习的过程加快了学习速度。实验结果表明:该算法在无约束、部分遮挡的场景中,能够生成有效的抓取姿态,且较Contact-GraspNet算法成功抓取率提升了约12%,能够应用于家用机器人的抓取任务。
展开更多
关键词
点云
位姿
估计
抓取估计
深度学习
损失函数
下载PDF
职称材料
融合语义实例重建的抓取位姿估计方法
4
作者
韩慧妍
王文俊
+2 位作者
韩燮
况立群
薛红新
《计算机工程与科学》
CSCD
北大核心
2023年第10期1822-1829,共8页
针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一...
针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一种高维位姿的降维学习方法,使用2个正交单位向量分解三维旋转矩阵,提升位姿学习准确率;搭建融合语义实例重建的抓取检测网络SIRGN,并在VGN仿真抓取数据集上完成训练。实验结果表明,SIRGN在拥挤(Packed)和堆叠(Pile)场景的抓取成功率分别达到了89.5%和78.1%,且在真实环境具有良好的适用性。
展开更多
关键词
抓取
位姿
估计
隐式三维重建
投票
降维
旋转矩阵
下载PDF
职称材料
基于多尺度特征融合的抓取位姿估计
被引量:
6
5
作者
肖贤鹏
胡莉
+2 位作者
张静
李树春
张华
《计算机工程与应用》
CSCD
北大核心
2022年第10期172-177,共6页
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺...
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺度特征作为抓取生成网络的输入,以生成抓取候选框;并将抓取方向坐标映射为抓取方向的分类任务,使用ROI Align进行感兴趣区域提取,评估抓取候选框,获取目标的最优抓取位姿。为验证算法有效性,基于康奈尔抓取数据集开展了抓取位姿估计实验,仿真抓取位姿估计准确度达到96.9%。基于Inter RealSense D415深度相机和UR5机械臂搭建了实物平台,在真实场景下对位姿随机摆放的多样性目标物体进行多次抓取实验,结果显示抓取目标检测成功率为95.8%,机器人抓取成功率为90.2%。
展开更多
关键词
抓取
位姿
估计
RGD信息
多尺度特征
抓取
建议网络
ROI
Align
下载PDF
职称材料
一种视/触觉融合的柔性物体抓取力估计方法
6
作者
吴培良
李瑶
+2 位作者
牛明月
陈雯柏
高国伟
《机器人》
EI
CSCD
北大核心
2024年第5期544-553,共10页
针对柔性物体操纵问题,提出了一种视/触觉融合的柔性物体抓取力估计方法——多感知局部增强Transformer(MSLET)。该方法利用模型学习每种传感器模态的低维特征,推断待抓取物体的物理特征,融合各模态的物理特征向量,用于预测抓取结果,并...
针对柔性物体操纵问题,提出了一种视/触觉融合的柔性物体抓取力估计方法——多感知局部增强Transformer(MSLET)。该方法利用模型学习每种传感器模态的低维特征,推断待抓取物体的物理特征,融合各模态的物理特征向量,用于预测抓取结果,并结合安全抓取物体的经验,推断最佳抓取力。首先,提出了用于提取视觉图像和触觉图像浅层特征的Feature-to-Patch模块,它利用2种图像的浅层特征提取图像块,进而得到它们的边缘特征,充分学习数据的特征信息,更好地推断物体的物理特征。其次,提出了用于增强局部特征的Local-Enhanced模块,对多头自注意力机制生成的图像块进行深度可分离卷积处理,以此增强局部性特征处理,促进空间维度上相邻标记之间的相关性,提高抓取结果的预测准确率。最后,对比实验表明,本文算法在保证运行效率的同时,将抓取准确率相较于当前最优模型提高了10.19%,证明该算法能够有效估计柔性物体抓取力。
展开更多
关键词
视/触觉融合
抓取
力
估计
物理特征嵌入
原文传递
一种基于双目视觉传感器的遮挡目标期望抓取点识别与定位方法
被引量:
7
7
作者
王煜升
张波涛
+1 位作者
吴秋轩
吕强
《传感技术学报》
CAS
CSCD
北大核心
2021年第8期1033-1043,共11页
在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以...
在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以特征检测进行遮挡目标识别,并进行轮廓还原;根据期望抓取点模型,采集目标的期望抓取位置,构建位置模型库。将待检测目标与模型库匹配,提取双目视野中未遮挡区域的期望抓取点。实验表明本方法在复杂环境下具有较高的鲁棒性,抗干扰能力强,对遮挡目标具有较高的定位精度。
展开更多
关键词
机器视觉
抓取
位置
估计
遮挡目标识别
双目定位
下载PDF
职称材料
题名
融合BlendMask的机械手臂抓取位姿估计模型
1
作者
刘家东
费博文
万子豪
胡建华
机构
中国信息通信研究院
中国科学院自动化研究所
出处
《机电工程技术》
2024年第6期74-78,118,共6页
基金
中科院科技服务网络计划(STS)(STS-HP-202202)。
文摘
针对复杂场景抓取位姿估计速度慢、精度低的问题,基于BlendMask实例分割网络,结合实例分割与抓取位姿估计,设计了一种端到端的机械手臂抓取位姿估计深度模型GPNet。该模型首先依据图像2D信息,在BlendMask网络中增加抓取中心、抓取主方向估计分支,提升抓取位姿估计速度;其次采用霍夫投票获取抓取中心及主方向,提高了2D抓取位姿估计的精度与鲁棒性;然后采用椭圆筛选机制,有效地解决了由圆形物体任意性对抓取主方向估计的干扰;最后依据新的损失函数训练GPNet,并结合图像深度信息获得最终抓取位姿信息。以中国信息通信研究院工业互联网平台、工业和信息化部重点实验室抓取实验场景为对象进行抓取速度与精度验证,以9种物体为抓取目标,结果表明在平均每个场景6种抓取目标实例且有干扰物体遮挡的复杂场景下,所提模型位姿估计平均速度达到0.057 s,平均抓取成功率达到90.2%。
关键词
抓取
位姿
估计
BlendMask
端到端
椭圆筛选
霍夫投票
Keywords
grasping pose estimation
BlendMask
end-to-end
ellipse filtering
Hough voting
分类号
TP241 [自动化与计算机技术—检测技术与自动化装置]
TP273 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
基于深度学习的机械臂抓取姿态估计实验设计
被引量:
2
2
作者
辛菁
龚爱玲
赵永红
穆凌霞
弋英民
张晓晖
机构
西安理工大学自动化与信息工程学院
出处
《实验室研究与探索》
CAS
北大核心
2023年第2期1-4,30,共5页
基金
国家自然科学基金项目(61873200)
西安理工大学教育教学改革重点项目(xjy1904)
+1 种基金
西安理工大学教改项目(xqj2112)
陕西省高等教育教学改革研究重点攻关项目(21BG022)。
文摘
为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提高抓取姿态估计的准确率。在Cornell数据集和JACQUARD数据集上进行了比较性实验。结果表明,相比于基本的GGCNN模型,SE-GGCNN模型在保证实时性的同时,将IoU指标值由原先的76%提升至82%;对于数据集中未出现过的新对象具备很好的鲁棒性和自适应性;单张图片115 ms的检测用时表明所提出的方法适合实时应用,提升了未知物体抓取姿态估计的准确率。
关键词
机械臂
深度学习
最优
抓取
姿态
估计
注意力机制
Keywords
robotic arm
deep learning
optimal grasping pose estimation
attention mechanism
分类号
TP241.2 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
基于PointNet++的机器人抓取姿态估计
被引量:
3
3
作者
阮国强
曹雏清
机构
安徽工程大学计算机与信息学院
哈尔滨工业大学芜湖机器人产业技术研究院
出处
《仪表技术与传感器》
CSCD
北大核心
2023年第5期44-48,共5页
基金
国家重点研发计划“智能机器人”重点专项(2018YFB1307100)
安徽省教育厅科学研究重点项目(KJ2020A0364)。
文摘
为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转变成4自由度问题处理,从而简化学习的过程加快了学习速度。实验结果表明:该算法在无约束、部分遮挡的场景中,能够生成有效的抓取姿态,且较Contact-GraspNet算法成功抓取率提升了约12%,能够应用于家用机器人的抓取任务。
关键词
点云
位姿
估计
抓取估计
深度学习
损失函数
Keywords
point cloud
pose estimation
grasp estimation
depth learning
loss function
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
融合语义实例重建的抓取位姿估计方法
4
作者
韩慧妍
王文俊
韩燮
况立群
薛红新
机构
中北大学计算机科学与技术学院
机器视觉与虚拟现实山西省重点实验室
山西省视觉信息处理及智能机器人工程研究中心
出处
《计算机工程与科学》
CSCD
北大核心
2023年第10期1822-1829,共8页
基金
国家自然科学基金(62106238)
山西省自然科学基金(202303021211153)
+1 种基金
山西省科技成果转化引导专项(202104021301055)
山西省研究生创新项目(2021Y626)。
文摘
针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一种高维位姿的降维学习方法,使用2个正交单位向量分解三维旋转矩阵,提升位姿学习准确率;搭建融合语义实例重建的抓取检测网络SIRGN,并在VGN仿真抓取数据集上完成训练。实验结果表明,SIRGN在拥挤(Packed)和堆叠(Pile)场景的抓取成功率分别达到了89.5%和78.1%,且在真实环境具有良好的适用性。
关键词
抓取
位姿
估计
隐式三维重建
投票
降维
旋转矩阵
Keywords
grasp pose estimation
implicit 3D reconstruction
voting
dimensionality reduction
rotation matrix
分类号
TP242.6 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
基于多尺度特征融合的抓取位姿估计
被引量:
6
5
作者
肖贤鹏
胡莉
张静
李树春
张华
机构
西南科技大学信息工程学院
中国科学技术大学信息科学技术学院
出处
《计算机工程与应用》
CSCD
北大核心
2022年第10期172-177,共6页
基金
国家“十三五”核能开发科研资助项目(20161295)
四川省教育厅重点资助科研项目(18ZA0492)。
文摘
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺度特征作为抓取生成网络的输入,以生成抓取候选框;并将抓取方向坐标映射为抓取方向的分类任务,使用ROI Align进行感兴趣区域提取,评估抓取候选框,获取目标的最优抓取位姿。为验证算法有效性,基于康奈尔抓取数据集开展了抓取位姿估计实验,仿真抓取位姿估计准确度达到96.9%。基于Inter RealSense D415深度相机和UR5机械臂搭建了实物平台,在真实场景下对位姿随机摆放的多样性目标物体进行多次抓取实验,结果显示抓取目标检测成功率为95.8%,机器人抓取成功率为90.2%。
关键词
抓取
位姿
估计
RGD信息
多尺度特征
抓取
建议网络
ROI
Align
Keywords
grasp pose estimation
RGD information
multi-scale features
grasp proposal network
ROI Align
分类号
TP241 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
一种视/触觉融合的柔性物体抓取力估计方法
6
作者
吴培良
李瑶
牛明月
陈雯柏
高国伟
机构
燕山大学信息科学与工程学院
河北省计算机虚拟技术与系统集成重点实验室
北京信息科技大学自动化学院
出处
《机器人》
EI
CSCD
北大核心
2024年第5期544-553,共10页
基金
国家自然科学基金(U20A20167,62276028)
河北省自然科学基金(F2021203079)
+1 种基金
河北省中央引导地方科技发展资金(236Z1811G)
河北省创新能力提升计划(22567626H)。
文摘
针对柔性物体操纵问题,提出了一种视/触觉融合的柔性物体抓取力估计方法——多感知局部增强Transformer(MSLET)。该方法利用模型学习每种传感器模态的低维特征,推断待抓取物体的物理特征,融合各模态的物理特征向量,用于预测抓取结果,并结合安全抓取物体的经验,推断最佳抓取力。首先,提出了用于提取视觉图像和触觉图像浅层特征的Feature-to-Patch模块,它利用2种图像的浅层特征提取图像块,进而得到它们的边缘特征,充分学习数据的特征信息,更好地推断物体的物理特征。其次,提出了用于增强局部特征的Local-Enhanced模块,对多头自注意力机制生成的图像块进行深度可分离卷积处理,以此增强局部性特征处理,促进空间维度上相邻标记之间的相关性,提高抓取结果的预测准确率。最后,对比实验表明,本文算法在保证运行效率的同时,将抓取准确率相较于当前最优模型提高了10.19%,证明该算法能够有效估计柔性物体抓取力。
关键词
视/触觉融合
抓取
力
估计
物理特征嵌入
Keywords
visual-tactile fusion
grasping force estimation
physical feature embedding
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
TP391.41 [自动化与计算机技术—计算机应用技术]
原文传递
题名
一种基于双目视觉传感器的遮挡目标期望抓取点识别与定位方法
被引量:
7
7
作者
王煜升
张波涛
吴秋轩
吕强
机构
杭州电子科技大学自动化学院
出处
《传感技术学报》
CAS
CSCD
北大核心
2021年第8期1033-1043,共11页
基金
浙江省重点研发项目(2019C04018)
国家自然科学基金(62073108)。
文摘
在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以特征检测进行遮挡目标识别,并进行轮廓还原;根据期望抓取点模型,采集目标的期望抓取位置,构建位置模型库。将待检测目标与模型库匹配,提取双目视野中未遮挡区域的期望抓取点。实验表明本方法在复杂环境下具有较高的鲁棒性,抗干扰能力强,对遮挡目标具有较高的定位精度。
关键词
机器视觉
抓取
位置
估计
遮挡目标识别
双目定位
Keywords
machine vision
grab position estimation
occluded target recognition
binocular positioning
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
融合BlendMask的机械手臂抓取位姿估计模型
刘家东
费博文
万子豪
胡建华
《机电工程技术》
2024
0
下载PDF
职称材料
2
基于深度学习的机械臂抓取姿态估计实验设计
辛菁
龚爱玲
赵永红
穆凌霞
弋英民
张晓晖
《实验室研究与探索》
CAS
北大核心
2023
2
下载PDF
职称材料
3
基于PointNet++的机器人抓取姿态估计
阮国强
曹雏清
《仪表技术与传感器》
CSCD
北大核心
2023
3
下载PDF
职称材料
4
融合语义实例重建的抓取位姿估计方法
韩慧妍
王文俊
韩燮
况立群
薛红新
《计算机工程与科学》
CSCD
北大核心
2023
0
下载PDF
职称材料
5
基于多尺度特征融合的抓取位姿估计
肖贤鹏
胡莉
张静
李树春
张华
《计算机工程与应用》
CSCD
北大核心
2022
6
下载PDF
职称材料
6
一种视/触觉融合的柔性物体抓取力估计方法
吴培良
李瑶
牛明月
陈雯柏
高国伟
《机器人》
EI
CSCD
北大核心
2024
0
原文传递
7
一种基于双目视觉传感器的遮挡目标期望抓取点识别与定位方法
王煜升
张波涛
吴秋轩
吕强
《传感技术学报》
CAS
CSCD
北大核心
2021
7
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部