针对目前的行人检测方法无法在复杂环境下同时满足高准确率和高检测速度的问题,提出了基于改进YOLOv7(You Only Look Once version 7)的高效行人检测方法。首先,通过鬼影混洗卷积(GSConv)与VoVGSCSP(VoVNetGS Conv Cross StagePartial)...针对目前的行人检测方法无法在复杂环境下同时满足高准确率和高检测速度的问题,提出了基于改进YOLOv7(You Only Look Once version 7)的高效行人检测方法。首先,通过鬼影混洗卷积(GSConv)与VoVGSCSP(VoVNetGS Conv Cross StagePartial)构建Slim-Neck,前者使用混洗操作将普通卷积生成的信息渗透到可分离卷积的输出中,来实现通道间信息的交互,后者采用一次聚合方法设计了跨阶段部分网络,VoVGSCSP模块降低了计算量和网络结构的复杂性,并保持了足够的精度;其次,在YOLOv7输出部分引入卷积注意力模块(CBAM),利用通道注意力和空间注意力来捕获特征之间的相关性,从而优化YOLOv7的特征表示能力,提高方法的准确性和鲁棒性。实验结果表明:在多个行人数据集上,与YOLOv5和YOLOv7相比,改进的YOLOv7方法平均精度(AP)提升了1.63~3.51个百分点,对数平均缺失率(LAMR)降低了0.54~3.97个百分点;相较于YOLOv7平均检测速度提升10FPS;同时通过弗里德曼检验结果证实改进的YOLOv7方法可用于实际数据,有效地实现了复杂环境下高精度、快速的行人检测。展开更多
为挖掘特征间的语义关系以及空间分布信息,并通过多特征增强进一步改善点云语义分割的效果,提出一种基于多特征融合的点云场景语义分割网络(MFF-Net)。所提网络以点的三维坐标和改进后的边特征作为输入,首先,利用K-近邻(KNN)算法搜寻点...为挖掘特征间的语义关系以及空间分布信息,并通过多特征增强进一步改善点云语义分割的效果,提出一种基于多特征融合的点云场景语义分割网络(MFF-Net)。所提网络以点的三维坐标和改进后的边特征作为输入,首先,利用K-近邻(KNN)算法搜寻点的近邻点,并在三维坐标和近邻点间坐标差值的基础上计算几何偏移量,从而增强点的局部几何特征表示;其次,将中心点与近邻点间的距离作为权重信息更新边特征,并引入空间注意力机制,获取特征间的语义信息;再次,通过计算近邻特征间的差值,利用均值池化操作进一步提取特征间的空间分布信息;最后,利用注意力池化操作融合三边特征。实验结果表明,所提网络在S3DIS(Stanford 3D large-scale Indoor Spaces)数据集上的平均交并比(mIoU)达到了67.5%,总体准确率(OA)达到了87.2%,相较于PointNet++分别提高10.2和3.4个百分点,可见MFF-Net在大型室内/室外场景均能获得良好的分割效果。展开更多
文摘针对目前的行人检测方法无法在复杂环境下同时满足高准确率和高检测速度的问题,提出了基于改进YOLOv7(You Only Look Once version 7)的高效行人检测方法。首先,通过鬼影混洗卷积(GSConv)与VoVGSCSP(VoVNetGS Conv Cross StagePartial)构建Slim-Neck,前者使用混洗操作将普通卷积生成的信息渗透到可分离卷积的输出中,来实现通道间信息的交互,后者采用一次聚合方法设计了跨阶段部分网络,VoVGSCSP模块降低了计算量和网络结构的复杂性,并保持了足够的精度;其次,在YOLOv7输出部分引入卷积注意力模块(CBAM),利用通道注意力和空间注意力来捕获特征之间的相关性,从而优化YOLOv7的特征表示能力,提高方法的准确性和鲁棒性。实验结果表明:在多个行人数据集上,与YOLOv5和YOLOv7相比,改进的YOLOv7方法平均精度(AP)提升了1.63~3.51个百分点,对数平均缺失率(LAMR)降低了0.54~3.97个百分点;相较于YOLOv7平均检测速度提升10FPS;同时通过弗里德曼检验结果证实改进的YOLOv7方法可用于实际数据,有效地实现了复杂环境下高精度、快速的行人检测。
文摘为挖掘特征间的语义关系以及空间分布信息,并通过多特征增强进一步改善点云语义分割的效果,提出一种基于多特征融合的点云场景语义分割网络(MFF-Net)。所提网络以点的三维坐标和改进后的边特征作为输入,首先,利用K-近邻(KNN)算法搜寻点的近邻点,并在三维坐标和近邻点间坐标差值的基础上计算几何偏移量,从而增强点的局部几何特征表示;其次,将中心点与近邻点间的距离作为权重信息更新边特征,并引入空间注意力机制,获取特征间的语义信息;再次,通过计算近邻特征间的差值,利用均值池化操作进一步提取特征间的空间分布信息;最后,利用注意力池化操作融合三边特征。实验结果表明,所提网络在S3DIS(Stanford 3D large-scale Indoor Spaces)数据集上的平均交并比(mIoU)达到了67.5%,总体准确率(OA)达到了87.2%,相较于PointNet++分别提高10.2和3.4个百分点,可见MFF-Net在大型室内/室外场景均能获得良好的分割效果。