-
题名融合深度学习的机器人目标检测与定位
被引量:7
- 1
-
-
作者
黄怡蒙
易阳
-
机构
南京工业大学电气工程与控制科学学院
-
出处
《计算机工程与应用》
CSCD
北大核心
2020年第24期181-187,共7页
-
基金
江苏省青年基金(No.BK20180693)。
-
文摘
Tiny-YOLOV3是目标检测领域常用的检测算法,相比较YOLOV3,其优点是神经网络层比较简单,计算量少,且对硬件的配置要求较低,因此可以保证检测的实时性,但由于网络层比较少,检测的精度也较低。为了提高TinyYOLOV3在网络中的检测精度,提出一类Tiny-YOLOV3改进模型,调整检测网络架构的损失结构层,以卷积层和特征图的相关系数矩阵表征特征图分布,设计损失函数优化损失特征层分布,增强网络特征的表达能力。结合NAO机器人平台,采用三角函数定位将基于图像的目标检测位置转换为机器人坐标系位置。根据4 000张VOC数据格式自制数据集进行模型训练与测试,针对不同物体在变化位置下进行50次机器人手臂抓取实验。相比原始TinyYOLOV3模型,改进的网络模型在分辨率为640×480单张图片的检测速度35帧/s前提下,检测mAP值提高了4.08%,置信度提高20%。实验结果表明算法在兼顾目标检测时间效率的前提下有效提高了目标检测准确度,可满足机器人在分拣、采摘、监控、服务等多样实时性应用场景需求。
-
关键词
目标检测
机器人
网络结构
Tiny-YOLOV3
损失函数
-
Keywords
object detection
robot
network structure
Tiny-YOLOV3
loss function
-
分类号
TP391.4
[自动化与计算机技术—计算机应用技术]
-
-
题名X-YOWO:实时人体行为定位方法
- 2
-
-
作者
袁赛美
黄怡蒙
冯李航
朱文俊
易阳
-
机构
南京工业大学电气工程与控制科学学院
-
出处
《计算机工程与应用》
CSCD
北大核心
2022年第20期148-156,共9页
-
基金
江苏省青年基金(BK20180693)
国家青年基金(61803198)。
-
文摘
基于视频的人体行为定位技术在城市安全系统、人机交互系统等领域具有广泛应用需求。针对现有人体行为定位技术模型复杂、定位精度与检测速度难以平衡的问题,提出了一类新的人体行为定位的深度学习框架X_YOWO,该框架继承了原YOWO的3D-CNN和2D-CNN两个分支,重新设计了通道融合与边界回归策略:通过基于相关系数矩阵的通道注意机制和相关性损失函数,使得模型在样本较少的情况下获得更多的有效特征,提高模型对特征的学习能力;采用一种基于距离概率大小来进行锚点聚类选择的方法,避免了原始聚类中心稳定性差的问题,使得改进后的锚点框大小更加适应数据集中目标大小的变化;采用CIoU回归损失函数作为目标函数,提高边界框回归的稳定性。在公开数据集UCF101-24和J-HMBD-21上对不同方法进行性能对比,当检测速度为22 frame/s时,使用X_YOWO后frame-mAP指标提高了3个百分点,不同阈值下的video-mAP指标也有较好表现。在自制的数据集上,当检测速度为22 frame/s时,X_YOWO的检测精度提高了3.6个百分点,定位精度提高了4.94个百分点,稳定性也更强。实验结果验证了X_YOWO在保证实时性前提下,具有更高的检测精度、稳定性及泛化能力。
-
关键词
X_YOWO
人体行为定位
瞄点框
相关系数
损失函数
-
Keywords
X_YOWO
human action localization
aiming point frame
correlation coefficient
loss function
-
分类号
TP391.4
[自动化与计算机技术—计算机应用技术]
-