针对航拍图像目标检测中小目标特征模糊问题,提出一种改进YOLO_v5x的目标检测算法。通过在YOLO_v5x的主干和颈部网络中添加空间到深度(space-to-depth,SPD)模块来减少细粒度信息丢失;在检测输出端添加1个小目标预测头,提高算法学习低分...针对航拍图像目标检测中小目标特征模糊问题,提出一种改进YOLO_v5x的目标检测算法。通过在YOLO_v5x的主干和颈部网络中添加空间到深度(space-to-depth,SPD)模块来减少细粒度信息丢失;在检测输出端添加1个小目标预测头,提高算法学习低分辨率特征的效率;引入协调注意力(coordinate attention,CA)机制,将横向和纵向的位置信息编码到通道注意中,增强网络对不同维度特征的提取能力;在完整交并比(complete-intersection over union,CIOU)损失函数的基础上引入Alpha交并比(α-IOU)损失函数,获得更准确的边界框回归,实现图像中目标更精确的定位。通过在Visdrone数据集上对改进YOLO_v5x算法进行训练和对比实验,结果表明:相比于原YOLO_v5x,改进目标检测算法的平均检测精度提升了7.8%,小目标检测的平均精度达23.9%,能够有效识别无人机航拍图中的小目标;相比于RetinaNet、YOLOX-S、Grid-RCNN等目标检测算法,改进目标检测算法的小目标检测平均精度最高,在当前主流检测小目标算法中达到先进水平。展开更多
文摘针对航拍图像目标检测中小目标特征模糊问题,提出一种改进YOLO_v5x的目标检测算法。通过在YOLO_v5x的主干和颈部网络中添加空间到深度(space-to-depth,SPD)模块来减少细粒度信息丢失;在检测输出端添加1个小目标预测头,提高算法学习低分辨率特征的效率;引入协调注意力(coordinate attention,CA)机制,将横向和纵向的位置信息编码到通道注意中,增强网络对不同维度特征的提取能力;在完整交并比(complete-intersection over union,CIOU)损失函数的基础上引入Alpha交并比(α-IOU)损失函数,获得更准确的边界框回归,实现图像中目标更精确的定位。通过在Visdrone数据集上对改进YOLO_v5x算法进行训练和对比实验,结果表明:相比于原YOLO_v5x,改进目标检测算法的平均检测精度提升了7.8%,小目标检测的平均精度达23.9%,能够有效识别无人机航拍图中的小目标;相比于RetinaNet、YOLOX-S、Grid-RCNN等目标检测算法,改进目标检测算法的小目标检测平均精度最高,在当前主流检测小目标算法中达到先进水平。