针对现有视网膜血管分割技术存在视网膜血管分割精度不高和病灶区域误分割的问题,提出对U型网络改进,结合密集空洞卷积(dense atrous convolution,DAC)模块与残差挤压激励(residual squeeze and excitation,RSE)模块的视网膜血管分割模...针对现有视网膜血管分割技术存在视网膜血管分割精度不高和病灶区域误分割的问题,提出对U型网络改进,结合密集空洞卷积(dense atrous convolution,DAC)模块与残差挤压激励(residual squeeze and excitation,RSE)模块的视网膜血管分割模型(DACRSE-Unet)。该模型采用改进集成随机失活块(DropBlock)的残差结构,不仅可以构建深层网络来提取更复杂的血管特征,还可以有效缓解过拟合;此外,为了进一步提高网络的表达能力,在改进残差块的基础上引入挤压激励模块(squeeze and excitation,SE);同时,为获取血管更多的上下文信息,在模型中引入DAC模块来实现对视网膜血管的精准分割;最后,在不同数据集上进行验证。结果表明,DACRSE-Unet模型的接受者操作特性曲线下面积分别为0.9869和0.9964,灵敏度分别为0.8226和0.8779,准确率分别为0.9692和0.9830,整体分割效果比其他模型更好。展开更多
为了准确地识别和定位自然环境中接近成熟或已成熟的树上芒果,提出了一种基于改进YOLOv3的目标检测方法(ISD-YOLOv3)。该方法首先利用在图像分类数据集ImageNet上精度更高的SE_ResNet50网络替换YOLOv3算法中的主干网络DarkNet53,提取更...为了准确地识别和定位自然环境中接近成熟或已成熟的树上芒果,提出了一种基于改进YOLOv3的目标检测方法(ISD-YOLOv3)。该方法首先利用在图像分类数据集ImageNet上精度更高的SE_ResNet50网络替换YOLOv3算法中的主干网络DarkNet53,提取更多的芒果特征信息,增强对小目标的识别;其次为有效减少深度残差卷积层在提取特征过程中造成的重要特征信息丢失,借鉴密集网络和VoVNetV2网络,将SE_ResNet50网络中最后3个由残差模块和SE模块构成的SE_ResNet模块改为密集模块、eSE模块及残差连接,实现深层网络中芒果的多层特征信息复用与融合,提高目标检测精度和速度;最后采用自制的树上芒果图像数据集对ISD-YOLOv3模型进行训练与测试,并与原始的YOLOv3_DarkNet53、YOLOv3_SE_ResNet50、Faster R-CNN3种模型进行对比试验。试验结果表明:当输入图像分辨率为608×608像素,交并比(intersection over union,IoU)阈值为0.7时,提出的ISD-YOLOv3方法,在芒果图像测试集上平均精度为94.91%,检测速度达到85帧·s-1(frames per second,FPS);YOLOv3_DarkNet53、YOLOv3_SE_ResNet50、Faster R-CNN这3种方法的平均精度分别为86.03%、91.95%和94.51%,检测速度分别为78FPS、78FPS和6FPS;与其他3种方法相比,ISD-YOLOv3算法检测效果明显更高效,其平均精度分别高出8.88%、2.96%、0.4%,检测速度分别高出7FPS、7FPS、79FPS。表明该方法对自然环境下的树上芒果识别与定位具有更高的检测性能,为实现芒果果实的机器采摘提供了参考。展开更多
针对单一卷积神经网络对多种复杂背景下手势图像识别准确率较低等问题,提出一种基于改进Xception网络的手势图像识别方法。该方法使用密集连接代替残差连接,在保留跳跃连接效果的同时减少深度可分离卷积模块和网络通道数量,不仅有效利...针对单一卷积神经网络对多种复杂背景下手势图像识别准确率较低等问题,提出一种基于改进Xception网络的手势图像识别方法。该方法使用密集连接代替残差连接,在保留跳跃连接效果的同时减少深度可分离卷积模块和网络通道数量,不仅有效利用了网络参数,而且降低了模型大小;其还融合SE模块强化重要特征,采用特征金字塔结构获得包含多尺度语义的特征张量,有助于网络分类。验证实验结果表明,改进网络的计算参数量为原始Xception网络的1/5,对NUS-Ⅱ手势数据集的识别准确率达到99.64%,比原始Xception网络提高了1.09%;对Sign Language for Numbers手势数据集的识别准确率达到99.7%,比原始Xception网络提高了0.15%。与ResNet50、DenseNet121和InceptionV3等常用手势识别网络进行比较,改进网络在训练时间、模型大小、计算参数量和识别准确率方面均表现更优。基于改进Xception网络的手势识别方法在多种复杂背景因素干扰下仍具有较高的识别准确率,其泛化性强、参数量少,综合性能优于许多常用网络。展开更多
文摘针对现有视网膜血管分割技术存在视网膜血管分割精度不高和病灶区域误分割的问题,提出对U型网络改进,结合密集空洞卷积(dense atrous convolution,DAC)模块与残差挤压激励(residual squeeze and excitation,RSE)模块的视网膜血管分割模型(DACRSE-Unet)。该模型采用改进集成随机失活块(DropBlock)的残差结构,不仅可以构建深层网络来提取更复杂的血管特征,还可以有效缓解过拟合;此外,为了进一步提高网络的表达能力,在改进残差块的基础上引入挤压激励模块(squeeze and excitation,SE);同时,为获取血管更多的上下文信息,在模型中引入DAC模块来实现对视网膜血管的精准分割;最后,在不同数据集上进行验证。结果表明,DACRSE-Unet模型的接受者操作特性曲线下面积分别为0.9869和0.9964,灵敏度分别为0.8226和0.8779,准确率分别为0.9692和0.9830,整体分割效果比其他模型更好。
文摘为了准确地识别和定位自然环境中接近成熟或已成熟的树上芒果,提出了一种基于改进YOLOv3的目标检测方法(ISD-YOLOv3)。该方法首先利用在图像分类数据集ImageNet上精度更高的SE_ResNet50网络替换YOLOv3算法中的主干网络DarkNet53,提取更多的芒果特征信息,增强对小目标的识别;其次为有效减少深度残差卷积层在提取特征过程中造成的重要特征信息丢失,借鉴密集网络和VoVNetV2网络,将SE_ResNet50网络中最后3个由残差模块和SE模块构成的SE_ResNet模块改为密集模块、eSE模块及残差连接,实现深层网络中芒果的多层特征信息复用与融合,提高目标检测精度和速度;最后采用自制的树上芒果图像数据集对ISD-YOLOv3模型进行训练与测试,并与原始的YOLOv3_DarkNet53、YOLOv3_SE_ResNet50、Faster R-CNN3种模型进行对比试验。试验结果表明:当输入图像分辨率为608×608像素,交并比(intersection over union,IoU)阈值为0.7时,提出的ISD-YOLOv3方法,在芒果图像测试集上平均精度为94.91%,检测速度达到85帧·s-1(frames per second,FPS);YOLOv3_DarkNet53、YOLOv3_SE_ResNet50、Faster R-CNN这3种方法的平均精度分别为86.03%、91.95%和94.51%,检测速度分别为78FPS、78FPS和6FPS;与其他3种方法相比,ISD-YOLOv3算法检测效果明显更高效,其平均精度分别高出8.88%、2.96%、0.4%,检测速度分别高出7FPS、7FPS、79FPS。表明该方法对自然环境下的树上芒果识别与定位具有更高的检测性能,为实现芒果果实的机器采摘提供了参考。
文摘针对视网膜血管分割中存在的细小血管像素模糊以及血管断裂的问题,本文提出一种改进的密集U型网络(dense residual U-shaped network,DRU-Net)。首先,结合残差结构和密集连接的优点提出了密集残差模块,并用其构建DRU-Net网络的编码层和解码层,充分提取目标特征;然后在网络底部添加由空洞卷积搭建的多路特征蒸馏模块(multi-characteristic distillation block,MCDB),提取不同尺度的图像特征信息;最后在网络的跳跃连接处引入双向卷积长短期记忆模块(bidirectional convolutional long and short-term memory,BConv LSTM),充分融合浅层和深层的特征信息,输出完整的血管图。在公开的数据集DRIVE和CHASE_DB1上进行实验,分别取得了0.9669和0.9764的准确度,同时AUC(area under curve)分别达到了0.9839和0.9867,证明网络具有较好的分割效果,拥有一定的应用价值。
文摘针对单一卷积神经网络对多种复杂背景下手势图像识别准确率较低等问题,提出一种基于改进Xception网络的手势图像识别方法。该方法使用密集连接代替残差连接,在保留跳跃连接效果的同时减少深度可分离卷积模块和网络通道数量,不仅有效利用了网络参数,而且降低了模型大小;其还融合SE模块强化重要特征,采用特征金字塔结构获得包含多尺度语义的特征张量,有助于网络分类。验证实验结果表明,改进网络的计算参数量为原始Xception网络的1/5,对NUS-Ⅱ手势数据集的识别准确率达到99.64%,比原始Xception网络提高了1.09%;对Sign Language for Numbers手势数据集的识别准确率达到99.7%,比原始Xception网络提高了0.15%。与ResNet50、DenseNet121和InceptionV3等常用手势识别网络进行比较,改进网络在训练时间、模型大小、计算参数量和识别准确率方面均表现更优。基于改进Xception网络的手势识别方法在多种复杂背景因素干扰下仍具有较高的识别准确率,其泛化性强、参数量少,综合性能优于许多常用网络。