随着深度学习在国内目标检测的不断应用,常规的大、中目标检测已经取得惊人的进步,但由于卷积网络本身的局限性,针对小目标检测依然会出现漏检、误检的问题,以数据集Visdrone2019和数据集FloW-Img为例,对YOLOv7模型进行研究,在网络结构...随着深度学习在国内目标检测的不断应用,常规的大、中目标检测已经取得惊人的进步,但由于卷积网络本身的局限性,针对小目标检测依然会出现漏检、误检的问题,以数据集Visdrone2019和数据集FloW-Img为例,对YOLOv7模型进行研究,在网络结构上对骨干网的ELAN模块进行改进,将Focal NeXt block加入到ELAN模块的长短梯度路径中融合来强化输出小目标的特征质量和提高输出特征包含的上下文信息含量,在头部网络引入RepLKDeXt模块,该模块不仅可以取代SPPCSPC模块来简化模型整体结构还可以利用多通道、大卷积核和Cat操作来优化ELAN-H结构,最后引入SIOU损失函数取代CIOU函数以此提高该模型的鲁棒性。结果表明改进后的YOLOv7模型参数量减少计算复杂性降低并在小目标密度高的Visdrone 2019数据集上的检测性能近似不变,在小目标稀疏的FloW-Img数据集上涨幅9.05个百分点,进一步简化了模型并增加了模型的适用范围。展开更多
为了满足视觉机器人能够精准抓取平面零件的需求,提出一种加入深度学习算法的零件识别与定位方法。首先,利用YOLOv4-tiny目标检测算法对目标物体进行识别,并提取出感兴趣区域(Region of Interest,ROI)送入PSPnet语义分割网络中进一步提...为了满足视觉机器人能够精准抓取平面零件的需求,提出一种加入深度学习算法的零件识别与定位方法。首先,利用YOLOv4-tiny目标检测算法对目标物体进行识别,并提取出感兴趣区域(Region of Interest,ROI)送入PSPnet语义分割网络中进一步提取ROI。然后,将ROI区域进行亚像素级的模板匹配,并计算目标物体的深度信息。在目标物体中心坐标求解中,以ROI区域的最大内接圆的圆心作为目标物体的中心。最后,利用D-H法对机器人进行运动学解算,并进行抓取试验。实验结果表明:该方法的深度误差率大约为0.72%,视觉机器人抓取零件成功率达到91%,具有较高的定位精度和抓取成功率,可以满足实际工业分拣搬运需求。展开更多
文摘随着深度学习在国内目标检测的不断应用,常规的大、中目标检测已经取得惊人的进步,但由于卷积网络本身的局限性,针对小目标检测依然会出现漏检、误检的问题,以数据集Visdrone2019和数据集FloW-Img为例,对YOLOv7模型进行研究,在网络结构上对骨干网的ELAN模块进行改进,将Focal NeXt block加入到ELAN模块的长短梯度路径中融合来强化输出小目标的特征质量和提高输出特征包含的上下文信息含量,在头部网络引入RepLKDeXt模块,该模块不仅可以取代SPPCSPC模块来简化模型整体结构还可以利用多通道、大卷积核和Cat操作来优化ELAN-H结构,最后引入SIOU损失函数取代CIOU函数以此提高该模型的鲁棒性。结果表明改进后的YOLOv7模型参数量减少计算复杂性降低并在小目标密度高的Visdrone 2019数据集上的检测性能近似不变,在小目标稀疏的FloW-Img数据集上涨幅9.05个百分点,进一步简化了模型并增加了模型的适用范围。
文摘为了满足视觉机器人能够精准抓取平面零件的需求,提出一种加入深度学习算法的零件识别与定位方法。首先,利用YOLOv4-tiny目标检测算法对目标物体进行识别,并提取出感兴趣区域(Region of Interest,ROI)送入PSPnet语义分割网络中进一步提取ROI。然后,将ROI区域进行亚像素级的模板匹配,并计算目标物体的深度信息。在目标物体中心坐标求解中,以ROI区域的最大内接圆的圆心作为目标物体的中心。最后,利用D-H法对机器人进行运动学解算,并进行抓取试验。实验结果表明:该方法的深度误差率大约为0.72%,视觉机器人抓取零件成功率达到91%,具有较高的定位精度和抓取成功率,可以满足实际工业分拣搬运需求。