期刊文献+
共找到88篇文章
< 1 2 5 >
每页显示 20 50 100
ReLU激活函数深度网络的构造与逼近
1
作者 刘爱丽 陈志祥 《绍兴文理学院学报》 2024年第2期58-68,共11页
研究ReLU激活函数深度网络的构造与逼近问题.以一个在[-1,1]上对x^(2)具有指数逼近阶的深度ReLU网络作为子网络,构造逼近任意n次多项式的深度网络,并给出其逼近误差的上界估计.借助一元正交切比雪夫多项式、张量积理论和函数逼近的方法... 研究ReLU激活函数深度网络的构造与逼近问题.以一个在[-1,1]上对x^(2)具有指数逼近阶的深度ReLU网络作为子网络,构造逼近任意n次多项式的深度网络,并给出其逼近误差的上界估计.借助一元正交切比雪夫多项式、张量积理论和函数逼近的方法,构造二元正交多项式和两个输入的深度网络,同时得到了对二元连续函数的逼近估计. 展开更多
关键词 relu激活函数 逼近 切比雪夫多项式 深度网络
下载PDF
基于改进动态ReLU和注意力机制模型的中药材粉末显微图像识别研究 被引量:3
2
作者 王一丁 姚毅 +2 位作者 李耀利 蔡少青 袁媛 《计算机应用研究》 CSCD 北大核心 2021年第9期2861-2865,2870,共6页
中药材粉末显微特征图像数据量少、样本类别分布不均衡、类间差异小,传统的图像识别方法分类效果不佳。针对以上问题提出一种基于动态ReLU和注意力机制模型的深度卷积神经网络改进方法。首先,采用对小样本数据分类效果明显的Xception作... 中药材粉末显微特征图像数据量少、样本类别分布不均衡、类间差异小,传统的图像识别方法分类效果不佳。针对以上问题提出一种基于动态ReLU和注意力机制模型的深度卷积神经网络改进方法。首先,采用对小样本数据分类效果明显的Xception作为基础网络;其次,将网络中的静态ReLU激活函数替换为改进的动态ReLU函数,让每个样本具有自己独特的ReLU参数;最后,在网络中嵌入改进的SE模块,使网络能够更好地自动学习到每个特征通道的重要程度。以上方法可以使网络更加注重于图像中的细节信息,能很好地解决样本类别分布不均衡、类间差异小的问题。实验结果表明,对56种中药材粉末导管图像进行分类识别,其准确率提升了约1.5%,达到93.8%,证明了所提研究方法相比于其他图像分类方法具有一定的优越性。 展开更多
关键词 卷积神经网络 中药材粉末显微特征图像识别 深度学习 动态relu函数 SE模块
下载PDF
一种使用log函数的新型修正激活单元LogReLU 被引量:6
3
作者 王多民 刘淑芬 《吉林大学学报(理学版)》 CAS CSCD 北大核心 2017年第3期617-622,共6页
提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真... 提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真实验的结果表明,新提出的两种方法效果均好于原始的修正线性单元,带有两个参数的改进使验证错误率分别降低了0.14%和5.33%. 展开更多
关键词 人工智能 卷积神经网络 激活函数 relu
下载PDF
基于ReLU函数的卷积神经网络的花卉识别算法 被引量:18
4
作者 郭子琰 舒心 +1 位作者 刘常燕 李雷 《计算机技术与发展》 2018年第5期154-157,163,共5页
目前对于花卉识别的工作较少,且在已有实验结果中,识别准确率和识别计算速度偏低,需要改进算法、改善实验结果。卷积神经网络由于其可以将图像直接作为输入对象从而避免人工提取特征过程的误差,且在各种外物因素下(光照、旋转、遮挡等)... 目前对于花卉识别的工作较少,且在已有实验结果中,识别准确率和识别计算速度偏低,需要改进算法、改善实验结果。卷积神经网络由于其可以将图像直接作为输入对象从而避免人工提取特征过程的误差,且在各种外物因素下(光照、旋转、遮挡等)具有良好的鲁棒性,所以在图像识别方面具有巨大的优势。因此选取卷积神经网络对花卉进行识别。在传统卷积神经网络中,一般选用Sigmoid函数作为激活函数,但是使用这种函数需要进行预训练,否则将会出现梯度消失无法收敛的问题。而采用近似生物神经激活函数ReLU则可以避免这一问题,提高机器学习的效果和速度。最终达到了92.5%的识别正确率。 展开更多
关键词 relu函数 卷积神经网络 花卉识别 近似生物神经激活函数
下载PDF
具有ReLU函数的动力神经场方程稳定解的存在性 被引量:2
5
作者 秦子雁 陈芃合 金德泉 《广西大学学报(自然科学版)》 CAS 北大核心 2021年第1期231-235,共5页
为进一步探索动力神经场的相关性质,将单调递增但是无界的ReLU函数作为阈值函数运用在一维的Amari动力神经场中,这与将单调有界的阶跃函数或Sigmoid型函数作为阈值函数的传统动力神经场研究不同。在不考虑输入,且相互作用核为高斯函数... 为进一步探索动力神经场的相关性质,将单调递增但是无界的ReLU函数作为阈值函数运用在一维的Amari动力神经场中,这与将单调有界的阶跃函数或Sigmoid型函数作为阈值函数的传统动力神经场研究不同。在不考虑输入,且相互作用核为高斯函数的情况下,对3种不同的稳定解进行研究,得出Amari动力神经场稳定解的存在条件和相关性质。 展开更多
关键词 Amari动力神经场 稳定解 relu函数 高斯函数
下载PDF
卷积神经网络中SPReLU激活函数的优化研究 被引量:7
6
作者 吴婷婷 许晓东 吴云龙 《计算机与数字工程》 2021年第8期1637-1641,共5页
由于激活函数本身的特性,使得卷积神经网络出现了梯度消失、神经元死亡、均值偏移、稀疏表达能力差等问题,针对这些问题,将“S”型激活函数和ReLU系激活函数进行了对比,分别讨论其优点和不足,并结合ReLU、PReLU和Softplus三种激活函数优... 由于激活函数本身的特性,使得卷积神经网络出现了梯度消失、神经元死亡、均值偏移、稀疏表达能力差等问题,针对这些问题,将“S”型激活函数和ReLU系激活函数进行了对比,分别讨论其优点和不足,并结合ReLU、PReLU和Softplus三种激活函数优点,提出了一种新型激活函数SPReLU。实验结果表明,SPReLU函数在性能上优于其他激活函数,收敛速度快,能有效降低训练误差,缓解梯度消失和神经元死亡等问题,能够有效地提高文本分类模型的准确性。 展开更多
关键词 卷积神经网络 激活函数 梯度消失 神经元死亡 relu
下载PDF
卷积神经网络中ReLU激活函数优化设计 被引量:28
7
作者 王双印 滕国文 《信息通信》 2018年第1期42-43,共2页
卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用... 卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用梯度下降法的激活函数的学习率进行讨论研究并提出可行的学习率改进方法。提出一种新型校正激活函数,称其为e-ln函数,经过Mnist数据集仿真实验证明某些情况下其性能要优于ReLU。 展开更多
关键词 卷积神经网络 激活函数 relu 优化设计
下载PDF
基于Softplus函数的神经网络的Reluplex算法验证研究
8
作者 陆明远 侯春燕 王劲松 《信息安全研究》 2022年第9期917-924,共8页
形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,... 形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,而Relu的神经元在训练过程中较脆弱并可能垂死.Softplus是与Relu近似但比Relu更平滑的激活函数,改进了Reluplex算法使之能检验采用Softplus激活函数的深度神经网络,随后获取了在Softplus激活函数下测试鲁棒对抗性得到的实验数据结果,通过与Relu测试结果进行对比,证明了Softplus的测试效率明显高于Relu,它比Relu更平衡,从而让神经网络的学习更快.该研究扩展了神经网络验证算法的功能并展开了相应的对比分析,有利于以后更好地验证和改进深度神经网络,以确保其安全性. 展开更多
关键词 神经网络 形式化验证 激活函数 relu函数 Softplus函数
下载PDF
Palaeoskapha sichuanensis gen. et sp. nov. (Menispermaceae) from the Eocene Relu Formation in western Sichuan, West China 被引量:4
9
作者 Frederic M. B. JACQUES GUO Shuang-Xing 《植物分类学报》 CSCD 北大核心 2007年第4期576-582,共7页
Palaeoskapha sichuanensis gen. et sp. nov. of Menispermaceae is described here for the first time based on a well preserved fossil fruit. The specimen was found in the Relu Formation of western Sichuan, West China. Th... Palaeoskapha sichuanensis gen. et sp. nov. of Menispermaceae is described here for the first time based on a well preserved fossil fruit. The specimen was found in the Relu Formation of western Sichuan, West China. The specimen, straight, boat-shaped endocarp with large ventral condyle, clearly belongs to the tribe Tinosporeae. The wide aperture of the double condyle, combined with a whole shape not deeply invaginated, indicates a genus different from what was already known to science for this tribe. This fossil widens the distribution of the tribe during Eocene from North America and Europe to Asia, where it was formerly unknown. 展开更多
关键词 防已科 始新世 四川 群系 新种 植物 化石 果实
下载PDF
深度ReLU神经网络的万有一致性
10
作者 刘霞 王迪 《中国科学:信息科学》 CSCD 北大核心 2024年第3期638-652,共15页
随着数据量爆炸式增长、计算资源愈加丰富,浅层神经网络并不总能满足时代需求,从而导致深度神经网络的出现.深度神经网络的迅猛发展主要体现在应用领域,其理论研究相对匮乏.基于此,本文聚焦研究深度ReLU神经网络的万有一致性,具体内容包... 随着数据量爆炸式增长、计算资源愈加丰富,浅层神经网络并不总能满足时代需求,从而导致深度神经网络的出现.深度神经网络的迅猛发展主要体现在应用领域,其理论研究相对匮乏.基于此,本文聚焦研究深度ReLU神经网络的万有一致性,具体内容包括:首先,是否存在一个具有统一结构的深度神经网络(即深度、宽度、激活函数等均已确定)使得该深度神经网络可以学习更多特征,并具有万有逼近性;其次,针对已确定的深度神经网络模型,证明其是强万有一致的;最后,从实验的角度验证理论结果的合理性. 展开更多
关键词 深度神经网络 万有一致性 深度学习 relu 函数 逼近性
原文传递
基于ReLU激活函数的轧制力神经网络预报模型 被引量:6
11
作者 刘杰辉 范冬雨 田润良 《锻压技术》 CAS CSCD 北大核心 2016年第10期162-165,共4页
平整机轧制力的预报对轧制过程的优化控制有着重要意义。针对平整机轧制力预测精度不高的问题,提出采用Re LU(Rectified Linear Units)激活函数的神经网络模型来预报平整机的轧制力。在对数据进行主成分分析后,得到影响轧制力的主要因素... 平整机轧制力的预报对轧制过程的优化控制有着重要意义。针对平整机轧制力预测精度不高的问题,提出采用Re LU(Rectified Linear Units)激活函数的神经网络模型来预报平整机的轧制力。在对数据进行主成分分析后,得到影响轧制力的主要因素,并将其作为神经网络的输入层,将平整机轧制力作为输出层,通过使用Python语言编程进行实验,对神经网络模型隐层的相关参数及算法进行单一变量筛选,建立了保证轧制力预报精度最高的神经网络模型。实验结果表明,通过调整隐层层数、神经元数、传播算法、正则化方法,该模型能够将预测误差控制在10%以内,且该实验方法能够对不同输入参数下的平整机轧制力进行精确预报。 展开更多
关键词 轧制力 神经网络 relu 传播算法 正则化 平整机
原文传递
基于改进的YOLOv5网络的舌象检测算法
12
作者 张杨 辛国江 +1 位作者 王鑫 朱磊 《计算机技术与发展》 2024年第2期156-162,共7页
针对目前舌象检测模型在自然状态下对舌象检测存在的误检和漏检的问题,以收集的舌象为研究对象,提出了一种基于YOLOv5的自然状态下的舌象检测算法。首先,将原有的SiLU激活函数替换为ReLu激活函数,减少指数运算,加速舌象检测网络收敛;然... 针对目前舌象检测模型在自然状态下对舌象检测存在的误检和漏检的问题,以收集的舌象为研究对象,提出了一种基于YOLOv5的自然状态下的舌象检测算法。首先,将原有的SiLU激活函数替换为ReLu激活函数,减少指数运算,加速舌象检测网络收敛;然后,利用Ghost轻量化模块技术,大幅降低舌象检测网络的参数量;最后,将SimAm注意力机制融入特征提取网络获取舌象特征,从多维度融合舌象特征,降低自然环境对舌象特征提取的影响。得到一个轻量化的舌象检测模型,在自制的数据集上分析可知:轻量化检测模型参数量达到7.8 MB,检测的精度达到96.6%,同时每秒处理帧数高达86帧,更适合自然状态下舌象的采集工作。实验结果表明,改进的舌象检测网络在自制舌象数据集上,相比于其它常用检测算法,性能指标上均有不同程度提升,对舌象的检测效果更好。 展开更多
关键词 舌象检测 YOLOv5 relu激活函数 轻量化 SimAm注意力机制
下载PDF
基于Relief算法与ReLU核ELM的煤矿开采最大下沉预测模型研究
13
作者 魏勇 唐延东 +1 位作者 喻强 杨春兰 《煤矿开采》 北大核心 2018年第5期68-72,21,共6页
尝试引入Re LU function核的ELM算法及Relief Algorithm对开采区最大下沉量进行预测。首先基于Relief Algorithm对现场岩移数据进行筛选优化;然后通过隐含层数目循环实验选出预测精度较高的ELM预测模型隐含层数目;再筛选优化后的参数为... 尝试引入Re LU function核的ELM算法及Relief Algorithm对开采区最大下沉量进行预测。首先基于Relief Algorithm对现场岩移数据进行筛选优化;然后通过隐含层数目循环实验选出预测精度较高的ELM预测模型隐含层数目;再筛选优化后的参数为输入,最大下沉为目标分别建立基于Re LU function核、igmoid function核、Radial basis function核及Hardlim function核的ELM预测模型;最后对4种模型的预测结果进行对比分析。结果表明:采厚、平均采深、走向长度和倾向长度与最大下沉关系显著;以Re LU function核、隐含层神经元数目为57的ELM的预测结果精度显著优于对比组。 展开更多
关键词 开采最大下沉 RELIEF ALGORITHM relu FUNCTION ELM
下载PDF
Verifying ReLU Neural Networks from a Model Checking Perspective 被引量:3
14
作者 Wan-Wei Liu Fu Song +1 位作者 Tang-Hao-Ran Zhang Ji Wang 《Journal of Computer Science & Technology》 SCIE EI CSCD 2020年第6期1365-1381,共17页
Neural networks, as an important computing model, have a wide application in artificial intelligence (AI) domain. From the perspective of computer science, such a computing model requires a formal description of its b... Neural networks, as an important computing model, have a wide application in artificial intelligence (AI) domain. From the perspective of computer science, such a computing model requires a formal description of its behaviors, particularly the relation between input and output. In addition, such specifications ought to be verified automatically. ReLU (rectified linear unit) neural networks are intensively used in practice. In this paper, we present ReLU Temporal Logic (ReTL), whose semantics is defined with respect to ReLU neural networks, which could specify value-related properties about the network. We show that the model checking algorithm for theΣ2∪Π2 fragment of ReTL, which can express properties such as output reachability, is decidable in EXPSPACE. We have also implemented our algorithm with a prototype tool, and experimental results demonstrate the feasibility of the presented model checking approach. 展开更多
关键词 model checking rectified linear unit neural(relu)network temporal logic
原文传递
Feature Representations Using the Reflected Rectified Linear Unit(RReLU) Activation 被引量:6
15
作者 Chaity Banerjee Tathagata Mukherjee Eduardo Pasiliao Jr. 《Big Data Mining and Analytics》 2020年第2期102-120,共19页
Deep Neural Networks(DNNs)have become the tool of choice for machine learning practitioners today.One important aspect of designing a neural network is the choice of the activation function to be used at the neurons o... Deep Neural Networks(DNNs)have become the tool of choice for machine learning practitioners today.One important aspect of designing a neural network is the choice of the activation function to be used at the neurons of the different layers.In this work,we introduce a four-output activation function called the Reflected Rectified Linear Unit(RRe LU)activation which considers both a feature and its negation during computation.Our activation function is"sparse",in that only two of the four possible outputs are active at a given time.We test our activation function on the standard MNIST and CIFAR-10 datasets,which are classification problems,as well as on a novel Computational Fluid Dynamics(CFD)dataset which is posed as a regression problem.On the baseline network for the MNIST dataset,having two hidden layers,our activation function improves the validation accuracy from 0.09 to 0.97 compared to the well-known Re LU activation.For the CIFAR-10 dataset,we use a deep baseline network that achieves 0.78 validation accuracy with 20 epochs but overfits the data.Using the RRe LU activation,we can achieve the same accuracy without overfitting the data.For the CFD dataset,we show that the RRe LU activation can reduce the number of epochs from 100(using Re LU)to 10 while obtaining the same levels of performance. 展开更多
关键词 deep learning feature space APPROXIMATIONS multi-output activations Rectified Linear Unit(relu)
原文传递
DEEP RELU NETWORKS OVERCOME THE CURSE OF DIMENSIONALITY FOR GENERALIZED BANDLIMITED FUNCTIONS
16
作者 Hadrien Montanelli Haizhao Yang Qiang Du 《Journal of Computational Mathematics》 SCIE CSCD 2021年第6期801-815,共15页
We prove a theorem concerning the approximation of generalized bandlimited multivariate functions by deep ReLU networks for which the curse of the dimensionality is overcome.Our theorem is based on a result by Maurey ... We prove a theorem concerning the approximation of generalized bandlimited multivariate functions by deep ReLU networks for which the curse of the dimensionality is overcome.Our theorem is based on a result by Maurey and on the ability of deep ReLU networks to approximate Chebyshev polynomials and analytic functions efficiently. 展开更多
关键词 Machine learning Deep relu networks Curse of dimensionality Approximation theory Bandlimited functions Chebyshev polynomials
原文传递
基于图像增强和注意力机制的作物杂草识别 被引量:1
17
作者 曲福恒 李婉婷 +2 位作者 杨勇 刘红玉 郝忠林 《计算机工程与设计》 北大核心 2023年第3期815-821,共7页
为提高复杂环境下无人机获取的作物杂草图像识别的准确率,提出一种基于图像增强与注意力机制的作物杂草识别方法。在多尺度Retinex算法中加入颜色恢复函数调节3个通道颜色的占比以恢复其颜色特征,使图像更清晰;将残差网络模型中的激活... 为提高复杂环境下无人机获取的作物杂草图像识别的准确率,提出一种基于图像增强与注意力机制的作物杂草识别方法。在多尺度Retinex算法中加入颜色恢复函数调节3个通道颜色的占比以恢复其颜色特征,使图像更清晰;将残差网络模型中的激活函数换为Leaky ReLU,加入CBAM注意力机制模块,获取更多有用信息,抑制其它无用信息。实验结果表明,该方法可以提高复杂环境下无人机获取的作物杂草图像的识别准确率,其准确率达到95.3%,高于AlexNet、ResNet18、ResNet50及其它主流算法的识别结果。 展开更多
关键词 无人机 作物杂草识别 多尺度RETINEX算法 颜色恢复函数 残差网络 Leaky relu激活函数 注意力机制
下载PDF
基于改进时间信息融合模型的液压管路故障诊断研究
18
作者 高鹏 李开泰 +2 位作者 王雷雷 窦航 江俊松 《机电工程》 CAS 北大核心 2023年第12期1923-1930,共8页
航空发动机液压管路故障信号中存在强大的噪声干扰,导致其诊断模型的故障识别率较低和诊断模型的泛化性不强。针对这一问题,提出了一种基于改进的时间信息融合模型的航空液压管路故障诊断方法。首先,基于循环神经网络原理,设计了正向和... 航空发动机液压管路故障信号中存在强大的噪声干扰,导致其诊断模型的故障识别率较低和诊断模型的泛化性不强。针对这一问题,提出了一种基于改进的时间信息融合模型的航空液压管路故障诊断方法。首先,基于循环神经网络原理,设计了正向和反向的时间信息融合的变形结构,构建出了航空液压管路时间信息融合模型,并通过引入LeakyReLU函数,对模型进行了改进;然后,将实测的一维航空管路时序数据集输入到改进的时间信息融合模型双向循环神经网络(Bi-RNN)中,进行了权重参数的更新;最后,基于同一实测的数据集,分别将其输入到改进的时间信息融合模型、长短期记忆神经网络(LSTM)、循环神经网络(RNN)、支持向量机(SVM)和反向传播神经网络(BPNN)5种故障诊断方法中,进行了训练和对比分析,对相关方法的优越性进行了验证。研究结果表明:利用改进的时间信息融合模型可以对液压管路健康状态和裂纹、凹坑等故障状态进行精准识别,并且准确率可以达到99.2%,总体的准确率和综合指标F 1-sore均可以提高5.1%;在综合性能、准确精度等指标上,改进时间信息融合模型明显优于其他故障诊断模型,可为航空发动机液压管路故障诊断提供一条新的思路,具有一定的工程应用价值。 展开更多
关键词 液压传动回路 时间信息融合模型 航空管路 循环神经网络 Leakyrelu函数 权重参数更新
下载PDF
基于改进CNN的苹果缺陷检测方法研究
19
作者 杜国真 卢明星 +1 位作者 季泽旭 刘继超 《食品与机械》 CSCD 北大核心 2023年第6期155-160,共6页
目的:解决现有苹果缺陷检测方法存在的精度低、效率差等问题。方法:基于水果图像采集系统,提出一种改进的卷积神经网络用于苹果表面缺陷检测;引入深度可分离卷积代换原网络标准卷积,提高特征提取速度;引入Leaky ReLU激活函数代替ReLU激... 目的:解决现有苹果缺陷检测方法存在的精度低、效率差等问题。方法:基于水果图像采集系统,提出一种改进的卷积神经网络用于苹果表面缺陷检测;引入深度可分离卷积代换原网络标准卷积,提高特征提取速度;引入Leaky ReLU激活函数代替ReLU激活函数,提高计算效率和精度;引入全局平均池化替换全连接层,降低网络模型的计算量;并在每层卷积后加入批量归一化层,通过试验与常规方法进行对比分析,验证其优越性。结果:与常规方法相比,所提方法在苹果缺陷检测中具有较高的检测准确率和速度,且模型参数量少,准确率达99.60%,检测速度(每秒帧数)达526,模型参数量为389 072。结论:该苹果缺陷检测方法能有效降低模型参数和检测时间,具有较高的准确率和速度。 展开更多
关键词 缺陷检测 苹果 卷积神经网络 深度可分离卷积 Leaky relu激活函数 全局平均池化
下载PDF
一种改进残差深度网络的多目标分类技术
20
作者 陈超 吴斌 《计算机测量与控制》 2023年第7期199-206,共8页
由于受场景、视角、光照、尺度变化以及局部变形等因素的影响,对重叠目标、拥挤目标、小目标的识别精度较低,提出了一种改进多支路的残差深度卷积神经网络来提高多目标识别的准确度;在第一个卷积残差块layer1后保留恒等映射的同时,增加... 由于受场景、视角、光照、尺度变化以及局部变形等因素的影响,对重叠目标、拥挤目标、小目标的识别精度较低,提出了一种改进多支路的残差深度卷积神经网络来提高多目标识别的准确度;在第一个卷积残差块layer1后保留恒等映射的同时,增加一个1×1的短接分支尽可能多的保留原始特征;再平行嵌入一个修改激活函数ReLU6的空间_通道注意力机制模块(CBAM);融合以上3个特征图;融合后的特征层着重关注空间和通道中比较显著的信息,从而增强特征图的特征表达能力,以至于卷积神经网络(CNN)获得更多的判别特征,从而大大提高物体识别精度;在FashionMNIST和Cifar10两个数据集的对比性实验显示改进的resnet50算法是准确性-速度较为折中的目标识别模型。 展开更多
关键词 残差深度卷积神经网络 短接分支 CBAM 激活函数relu6 多目标分类
下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部