摘要
为了实现苹果采摘过程中准确快速的识别,本研究提出一种融合FasterNet模型的YOLO v5改进苹果检测算法。首先在基准图像特征提取模块中使用FasterNet架构替代YOLO v5模型中的卷积块和CSPLayer,降低算法复杂度并增强小目标的特征提取能力;然后提出了利用ECIoU损失函数来预测目标位置偏差,通过增加边框角点损失来描述预测框与真实目标框之间的位置偏差信息,进一步提高了苹果检测的准确性,解决了YOLO v5算法对有遮挡的密集目标检测效果不佳的问题;最后在检测后处理阶段提出ECIoU-NMS方法以优化重叠目标框的选择。在通用数据集MS COCO和自建数据集上对本研究所提方法与YOLO v5算法进行了对比试验。本研究所提算法模型参数量下降了12%,计算量下降了25%,帧率提升了23%。在通用数据集MS COCO上mAP_(0.5)和mAP_(0.5∶0.95)指标分别提升了2.9、1.9百分点,在自建苹果数据集上mAP_(0.5)和mAP_(0.5∶0.95)指标分别提升了2.5、1.9百分点。本研究方法性能优于YOLO v5,且模型的轻量化使其更容易在苹果采摘机器人上部署。
出处
《江苏农业科学》
北大核心
2024年第12期217-223,共7页
Jiangsu Agricultural Sciences
基金
河北省自然科学基金(编号:C2021204034)
石家庄市科技计划(编号:231130351)
河北省“三三三人才工程”项目(编号:A202101035)。