针对遥感图像中小目标数量众多且背景复杂所导致的识别精度低的问题,提出了一种改进的遥感图像小目标检测方法。该方法基于改进的YOLOv7网络模型,将双级路由注意力机制加入至下采样阶段以构建针对小目标的特征提取模块MP-ATT(max poolin...针对遥感图像中小目标数量众多且背景复杂所导致的识别精度低的问题,提出了一种改进的遥感图像小目标检测方法。该方法基于改进的YOLOv7网络模型,将双级路由注意力机制加入至下采样阶段以构建针对小目标的特征提取模块MP-ATT(max pooling-attention),使得模型更加关注小目标的特征,提高小目标检测精度。为了加强对小目标的细节感知能力,使用DCNv3(deformable convolution network v3)替换骨干网络中的二维卷积,以此构建新的层聚合模块ELAN-D。为网络设计新的小目标检测层以获取更精细的特征信息,从而提升模型的鲁棒性。同时使用MPDIoU(minimum point distance based IoU)替换原模型中的CIoU来优化损失函数,以适应遥感图像的尺度变化。实验表明,所提出的方法在DOTA-v1.0数据集上取得了良好效果,准确率、召回率和平均准确率(mean average precision,mAP)相比原模型分别提升了0.4、4.0、2.3个百分点,证明了该方法能够有效提升遥感图像中小目标的检测效果。展开更多
[目的]本文旨在解决在自然环境下不同成熟度苹果目标检测精度较低的问题。[方法]提出了一种改进的YOLOv5s模型SODSTR-YOLOv5s(YOLOv5s with small detection layer and omni-dimensional dynamic convolution and swin transformer bloc...[目的]本文旨在解决在自然环境下不同成熟度苹果目标检测精度较低的问题。[方法]提出了一种改进的YOLOv5s模型SODSTR-YOLOv5s(YOLOv5s with small detection layer and omni-dimensional dynamic convolution and swin transformer block),用于不同成熟度苹果检测。首先改进YOLOv5s的多尺度目标检测层,在Prediction中构建检测160×160特征图的检测头,提高小尺寸的不同成熟度苹果的检测精度;其次在Backbone结构中融合Swin Transformer Block,加强同级成熟度的苹果纹理特征融合,弱化纹理特征分布差异带来的消极影响,提高模型泛化能力;最后将Neck结构的Conv模块替换为动态卷积模块ODConv,细化局部特征映射,实现局部苹果细粒度特征的充分提取。基于不同成熟度苹果数据集进行试验,验证改进模型的性能。[结果]改进模型SODSTR-YOLOv5s检测的精确率、召回率、平均精度均值分别为89.1%、95.5%、93.6%,高、中、低成熟度苹果平均精度均值分别为94.1%、93.1%、93.7%,平均检测时间为16 ms,参数量为7.34 M。相比于YOLOv5s模型,改进模型SODSTR-YOLOv5s精确率、召回率、平均精度均值分别提高了3.8%、5.0%、2.9%,参数量和平均检测时间分别增加了0.32 M和5 ms。[结论]改进模型SODSTR-YOLOv5s提升了在自然环境下对不同成熟度苹果的检测能力,能较好地满足实际采摘苹果的检测要求。展开更多
文摘针对遥感图像中小目标数量众多且背景复杂所导致的识别精度低的问题,提出了一种改进的遥感图像小目标检测方法。该方法基于改进的YOLOv7网络模型,将双级路由注意力机制加入至下采样阶段以构建针对小目标的特征提取模块MP-ATT(max pooling-attention),使得模型更加关注小目标的特征,提高小目标检测精度。为了加强对小目标的细节感知能力,使用DCNv3(deformable convolution network v3)替换骨干网络中的二维卷积,以此构建新的层聚合模块ELAN-D。为网络设计新的小目标检测层以获取更精细的特征信息,从而提升模型的鲁棒性。同时使用MPDIoU(minimum point distance based IoU)替换原模型中的CIoU来优化损失函数,以适应遥感图像的尺度变化。实验表明,所提出的方法在DOTA-v1.0数据集上取得了良好效果,准确率、召回率和平均准确率(mean average precision,mAP)相比原模型分别提升了0.4、4.0、2.3个百分点,证明了该方法能够有效提升遥感图像中小目标的检测效果。
文摘[目的]本文旨在解决在自然环境下不同成熟度苹果目标检测精度较低的问题。[方法]提出了一种改进的YOLOv5s模型SODSTR-YOLOv5s(YOLOv5s with small detection layer and omni-dimensional dynamic convolution and swin transformer block),用于不同成熟度苹果检测。首先改进YOLOv5s的多尺度目标检测层,在Prediction中构建检测160×160特征图的检测头,提高小尺寸的不同成熟度苹果的检测精度;其次在Backbone结构中融合Swin Transformer Block,加强同级成熟度的苹果纹理特征融合,弱化纹理特征分布差异带来的消极影响,提高模型泛化能力;最后将Neck结构的Conv模块替换为动态卷积模块ODConv,细化局部特征映射,实现局部苹果细粒度特征的充分提取。基于不同成熟度苹果数据集进行试验,验证改进模型的性能。[结果]改进模型SODSTR-YOLOv5s检测的精确率、召回率、平均精度均值分别为89.1%、95.5%、93.6%,高、中、低成熟度苹果平均精度均值分别为94.1%、93.1%、93.7%,平均检测时间为16 ms,参数量为7.34 M。相比于YOLOv5s模型,改进模型SODSTR-YOLOv5s精确率、召回率、平均精度均值分别提高了3.8%、5.0%、2.9%,参数量和平均检测时间分别增加了0.32 M和5 ms。[结论]改进模型SODSTR-YOLOv5s提升了在自然环境下对不同成熟度苹果的检测能力,能较好地满足实际采摘苹果的检测要求。