引入了Inception-SE卷积模块组来提升LeNet-5网络的广度与深度,运用SE模块增强了有用的特征并抑制了对当前任务用处不大的特征;使用BN层和Dropout优化网络,防止梯度弥散,提升精度;使用全局池化层(global average pooling,GAP)代替全连...引入了Inception-SE卷积模块组来提升LeNet-5网络的广度与深度,运用SE模块增强了有用的特征并抑制了对当前任务用处不大的特征;使用BN层和Dropout优化网络,防止梯度弥散,提升精度;使用全局池化层(global average pooling,GAP)代替全连接层来减少网络计算参数.研究结果表明:改进后网络的识别精度达到了99.88%,比传统的LeNet-5网络提高了1.71%.展开更多
目的:为解决人脸口罩识别中边缘和移动端设备存储与计算资源受限的问题,提出一种基于YOLOv5轻量化网络的人脸口罩识别方法。方法:选取由主干网络(Backbone)、颈部模块(Neck)和头部模块(Head)组成的YOLOv5模型作为基础框架。首先,使用Shu...目的:为解决人脸口罩识别中边缘和移动端设备存储与计算资源受限的问题,提出一种基于YOLOv5轻量化网络的人脸口罩识别方法。方法:选取由主干网络(Backbone)、颈部模块(Neck)和头部模块(Head)组成的YOLOv5模型作为基础框架。首先,使用ShuffleNetv2轻量化网络对Backbone部分进行修改替换;其次,在Neck部分引入Ghost模块和C3_S模块;最后,为提升检测精度,融入卷积块注意力模块(convolutional block attention module,CBAM),形成Shuffle_Yolo_GS_CBAM模型。选用AIZOO数据集训练和验证模型,通过平均精度均值(mean average precision,mAP)、每秒传输帧数(frames per second,FPS)、每秒10亿次的浮点运算数(giga floating-point operations per second,GFLOPS)和参数量评估模型对人脸口罩的识别效果。结果:该模型识别人脸口罩的mAP为89.5%,FPS为158.7帧/s,参数量和GFLOPS分别为2.38 M和4.5 GFLOPS。与YOLOv5s相比,虽然检测精度略有下降,但检测速度提升了39.7%,模型参数量减少了67.3%,模型运算量减少了73.8%。结论:提出的方法在提高检测速度、减少参数量和计算量、保障检测精度方面表现良好,适合部署在边缘和移动端设备上进行人脸口罩识别。展开更多
近些年来,在目标检测以及图像分割等领域涌现了许多先进的算法。在能见度较差的微光场景下如夜晚、大雾天气等场景中,视频图像具有像素声高、对比度低、无彩色信息等特点,算法的检测性能受到明显限制。与目前主流的RGB相机相比,毫米波...近些年来,在目标检测以及图像分割等领域涌现了许多先进的算法。在能见度较差的微光场景下如夜晚、大雾天气等场景中,视频图像具有像素声高、对比度低、无彩色信息等特点,算法的检测性能受到明显限制。与目前主流的RGB相机相比,毫米波雷达对上述复杂环境具有一定的免疫能力,可以在不利条件下辅助RGB相机进行目标检测工作。以单阶段目标检测器中实时性较高的YOLOv5s为基础,结合毫米波雷达的特性,提出了用于微光环境下目标检测的多模态识别网络。与现有的传感器融合方法相比,多模态识别网络有几个关键优势。系统以基于学习的方式融合了2种模态,只需要少量新场景的标记图像和雷达数据,因为其可以充分利用已经开源的大型图像数据集进行大批量的训练。这一突出特性使新系统能够适应高度复杂的现实环境。由于使用了高度计算效率的融合方法,系统是非常轻量级的,因此适用于各个复杂场景下的实时应用。为了评估系统的性能,制作了一个小批量的雷达和摄像机融合数据集,包含普通光照和不同强度微光光照条件下的多模态数据。实验结果表明,微光场景下多模态识别网络的平均精度达到76.6%,相比Faster R-CNN算法和YOLOv7算法,全类平均精度(mean Average Precision,mAP)提高了16.8%和9.3%,且误检、漏检率低,达到了在微光环境下完成目标检测任务的要求。展开更多
文摘引入了Inception-SE卷积模块组来提升LeNet-5网络的广度与深度,运用SE模块增强了有用的特征并抑制了对当前任务用处不大的特征;使用BN层和Dropout优化网络,防止梯度弥散,提升精度;使用全局池化层(global average pooling,GAP)代替全连接层来减少网络计算参数.研究结果表明:改进后网络的识别精度达到了99.88%,比传统的LeNet-5网络提高了1.71%.
文摘目的:为解决人脸口罩识别中边缘和移动端设备存储与计算资源受限的问题,提出一种基于YOLOv5轻量化网络的人脸口罩识别方法。方法:选取由主干网络(Backbone)、颈部模块(Neck)和头部模块(Head)组成的YOLOv5模型作为基础框架。首先,使用ShuffleNetv2轻量化网络对Backbone部分进行修改替换;其次,在Neck部分引入Ghost模块和C3_S模块;最后,为提升检测精度,融入卷积块注意力模块(convolutional block attention module,CBAM),形成Shuffle_Yolo_GS_CBAM模型。选用AIZOO数据集训练和验证模型,通过平均精度均值(mean average precision,mAP)、每秒传输帧数(frames per second,FPS)、每秒10亿次的浮点运算数(giga floating-point operations per second,GFLOPS)和参数量评估模型对人脸口罩的识别效果。结果:该模型识别人脸口罩的mAP为89.5%,FPS为158.7帧/s,参数量和GFLOPS分别为2.38 M和4.5 GFLOPS。与YOLOv5s相比,虽然检测精度略有下降,但检测速度提升了39.7%,模型参数量减少了67.3%,模型运算量减少了73.8%。结论:提出的方法在提高检测速度、减少参数量和计算量、保障检测精度方面表现良好,适合部署在边缘和移动端设备上进行人脸口罩识别。
文摘近些年来,在目标检测以及图像分割等领域涌现了许多先进的算法。在能见度较差的微光场景下如夜晚、大雾天气等场景中,视频图像具有像素声高、对比度低、无彩色信息等特点,算法的检测性能受到明显限制。与目前主流的RGB相机相比,毫米波雷达对上述复杂环境具有一定的免疫能力,可以在不利条件下辅助RGB相机进行目标检测工作。以单阶段目标检测器中实时性较高的YOLOv5s为基础,结合毫米波雷达的特性,提出了用于微光环境下目标检测的多模态识别网络。与现有的传感器融合方法相比,多模态识别网络有几个关键优势。系统以基于学习的方式融合了2种模态,只需要少量新场景的标记图像和雷达数据,因为其可以充分利用已经开源的大型图像数据集进行大批量的训练。这一突出特性使新系统能够适应高度复杂的现实环境。由于使用了高度计算效率的融合方法,系统是非常轻量级的,因此适用于各个复杂场景下的实时应用。为了评估系统的性能,制作了一个小批量的雷达和摄像机融合数据集,包含普通光照和不同强度微光光照条件下的多模态数据。实验结果表明,微光场景下多模态识别网络的平均精度达到76.6%,相比Faster R-CNN算法和YOLOv7算法,全类平均精度(mean Average Precision,mAP)提高了16.8%和9.3%,且误检、漏检率低,达到了在微光环境下完成目标检测任务的要求。