期刊文献+
共找到41篇文章
< 1 2 3 >
每页显示 20 50 100
ReLU激活函数深度网络的构造与逼近
1
作者 刘爱丽 陈志祥 《绍兴文理学院学报》 2024年第2期58-68,共11页
研究ReLU激活函数深度网络的构造与逼近问题.以一个在[-1,1]上对x^(2)具有指数逼近阶的深度ReLU网络作为子网络,构造逼近任意n次多项式的深度网络,并给出其逼近误差的上界估计.借助一元正交切比雪夫多项式、张量积理论和函数逼近的方法... 研究ReLU激活函数深度网络的构造与逼近问题.以一个在[-1,1]上对x^(2)具有指数逼近阶的深度ReLU网络作为子网络,构造逼近任意n次多项式的深度网络,并给出其逼近误差的上界估计.借助一元正交切比雪夫多项式、张量积理论和函数逼近的方法,构造二元正交多项式和两个输入的深度网络,同时得到了对二元连续函数的逼近估计. 展开更多
关键词 relu激活函数 逼近 切比雪夫多项式 深度网络
下载PDF
基于改进动态ReLU和注意力机制模型的中药材粉末显微图像识别研究 被引量:3
2
作者 王一丁 姚毅 +2 位作者 李耀利 蔡少青 袁媛 《计算机应用研究》 CSCD 北大核心 2021年第9期2861-2865,2870,共6页
中药材粉末显微特征图像数据量少、样本类别分布不均衡、类间差异小,传统的图像识别方法分类效果不佳。针对以上问题提出一种基于动态ReLU和注意力机制模型的深度卷积神经网络改进方法。首先,采用对小样本数据分类效果明显的Xception作... 中药材粉末显微特征图像数据量少、样本类别分布不均衡、类间差异小,传统的图像识别方法分类效果不佳。针对以上问题提出一种基于动态ReLU和注意力机制模型的深度卷积神经网络改进方法。首先,采用对小样本数据分类效果明显的Xception作为基础网络;其次,将网络中的静态ReLU激活函数替换为改进的动态ReLU函数,让每个样本具有自己独特的ReLU参数;最后,在网络中嵌入改进的SE模块,使网络能够更好地自动学习到每个特征通道的重要程度。以上方法可以使网络更加注重于图像中的细节信息,能很好地解决样本类别分布不均衡、类间差异小的问题。实验结果表明,对56种中药材粉末导管图像进行分类识别,其准确率提升了约1.5%,达到93.8%,证明了所提研究方法相比于其他图像分类方法具有一定的优越性。 展开更多
关键词 卷积神经网络 中药材粉末显微特征图像识别 深度学习 动态relu函数 SE模块
下载PDF
基于改进的YOLOv5网络的舌象检测算法
3
作者 张杨 辛国江 +1 位作者 王鑫 朱磊 《计算机技术与发展》 2024年第2期156-162,共7页
针对目前舌象检测模型在自然状态下对舌象检测存在的误检和漏检的问题,以收集的舌象为研究对象,提出了一种基于YOLOv5的自然状态下的舌象检测算法。首先,将原有的SiLU激活函数替换为ReLu激活函数,减少指数运算,加速舌象检测网络收敛;然... 针对目前舌象检测模型在自然状态下对舌象检测存在的误检和漏检的问题,以收集的舌象为研究对象,提出了一种基于YOLOv5的自然状态下的舌象检测算法。首先,将原有的SiLU激活函数替换为ReLu激活函数,减少指数运算,加速舌象检测网络收敛;然后,利用Ghost轻量化模块技术,大幅降低舌象检测网络的参数量;最后,将SimAm注意力机制融入特征提取网络获取舌象特征,从多维度融合舌象特征,降低自然环境对舌象特征提取的影响。得到一个轻量化的舌象检测模型,在自制的数据集上分析可知:轻量化检测模型参数量达到7.8 MB,检测的精度达到96.6%,同时每秒处理帧数高达86帧,更适合自然状态下舌象的采集工作。实验结果表明,改进的舌象检测网络在自制舌象数据集上,相比于其它常用检测算法,性能指标上均有不同程度提升,对舌象的检测效果更好。 展开更多
关键词 舌象检测 YOLOv5 relu激活函数 轻量化 SimAm注意力机制
下载PDF
Interpretation and characterization of rate of penetration intelligent prediction model
4
作者 Zhi-Jun Pei Xian-Zhi Song +3 位作者 Hai-Tao Wang Yi-Qi Shi Shou-Ceng Tian Gen-Sheng Li 《Petroleum Science》 SCIE EI CAS CSCD 2024年第1期582-596,共15页
Accurate prediction of the rate of penetration(ROP)is significant for drilling optimization.While the intelligent ROP prediction model based on fully connected neural networks(FNN)outperforms traditional ROP equations... Accurate prediction of the rate of penetration(ROP)is significant for drilling optimization.While the intelligent ROP prediction model based on fully connected neural networks(FNN)outperforms traditional ROP equations and machine learning algorithms,its lack of interpretability undermines its credibility.This study proposes a novel interpretation and characterization method for the FNN ROP prediction model using the Rectified Linear Unit(ReLU)activation function.By leveraging the derivative of the ReLU function,the FNN function calculation process is transformed into vector operations.The FNN model is linearly characterized through further simplification,enabling its interpretation and analysis.The proposed method is applied in ROP prediction scenarios using drilling data from three vertical wells in the Tarim Oilfield.The results demonstrate that the FNN ROP prediction model with ReLU as the activation function performs exceptionally well.The relative activation frequency curve of hidden layer neurons aids in analyzing the overfitting of the FNN ROP model and determining drilling data similarity.In the well sections with similar drilling data,averaging the weight parameters enables linear characterization of the FNN ROP prediction model,leading to the establishment of a corresponding linear representation equation.Furthermore,the quantitative analysis of each feature's influence on ROP facilitates the proposal of drilling parameter optimization schemes for the current well section.The established linear characterization equation exhibits high precision,strong stability,and adaptability through the application and validation across multiple well sections. 展开更多
关键词 Fully connected neural network Explainable artificial intelligence Rate of penetration relu active function Deep learning Machine learning
下载PDF
具有ReLU函数的动力神经场方程稳定解的存在性 被引量:3
5
作者 秦子雁 陈芃合 金德泉 《广西大学学报(自然科学版)》 CAS 北大核心 2021年第1期231-235,共5页
为进一步探索动力神经场的相关性质,将单调递增但是无界的ReLU函数作为阈值函数运用在一维的Amari动力神经场中,这与将单调有界的阶跃函数或Sigmoid型函数作为阈值函数的传统动力神经场研究不同。在不考虑输入,且相互作用核为高斯函数... 为进一步探索动力神经场的相关性质,将单调递增但是无界的ReLU函数作为阈值函数运用在一维的Amari动力神经场中,这与将单调有界的阶跃函数或Sigmoid型函数作为阈值函数的传统动力神经场研究不同。在不考虑输入,且相互作用核为高斯函数的情况下,对3种不同的稳定解进行研究,得出Amari动力神经场稳定解的存在条件和相关性质。 展开更多
关键词 Amari动力神经场 稳定解 relu函数 高斯函数
下载PDF
一种使用log函数的新型修正激活单元LogReLU 被引量:6
6
作者 王多民 刘淑芬 《吉林大学学报(理学版)》 CAS CSCD 北大核心 2017年第3期617-622,共6页
提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真... 提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真实验的结果表明,新提出的两种方法效果均好于原始的修正线性单元,带有两个参数的改进使验证错误率分别降低了0.14%和5.33%. 展开更多
关键词 人工智能 卷积神经网络 激活函数 relu
下载PDF
卷积神经网络中ReLU激活函数优化设计 被引量:29
7
作者 王双印 滕国文 《信息通信》 2018年第1期42-43,共2页
卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用... 卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用梯度下降法的激活函数的学习率进行讨论研究并提出可行的学习率改进方法。提出一种新型校正激活函数,称其为e-ln函数,经过Mnist数据集仿真实验证明某些情况下其性能要优于ReLU。 展开更多
关键词 卷积神经网络 激活函数 relu 优化设计
下载PDF
基于ReLU函数的卷积神经网络的花卉识别算法 被引量:18
8
作者 郭子琰 舒心 +1 位作者 刘常燕 李雷 《计算机技术与发展》 2018年第5期154-157,163,共5页
目前对于花卉识别的工作较少,且在已有实验结果中,识别准确率和识别计算速度偏低,需要改进算法、改善实验结果。卷积神经网络由于其可以将图像直接作为输入对象从而避免人工提取特征过程的误差,且在各种外物因素下(光照、旋转、遮挡等)... 目前对于花卉识别的工作较少,且在已有实验结果中,识别准确率和识别计算速度偏低,需要改进算法、改善实验结果。卷积神经网络由于其可以将图像直接作为输入对象从而避免人工提取特征过程的误差,且在各种外物因素下(光照、旋转、遮挡等)具有良好的鲁棒性,所以在图像识别方面具有巨大的优势。因此选取卷积神经网络对花卉进行识别。在传统卷积神经网络中,一般选用Sigmoid函数作为激活函数,但是使用这种函数需要进行预训练,否则将会出现梯度消失无法收敛的问题。而采用近似生物神经激活函数ReLU则可以避免这一问题,提高机器学习的效果和速度。最终达到了92.5%的识别正确率。 展开更多
关键词 relu函数 卷积神经网络 花卉识别 近似生物神经激活函数
下载PDF
卷积神经网络中SPReLU激活函数的优化研究 被引量:8
9
作者 吴婷婷 许晓东 吴云龙 《计算机与数字工程》 2021年第8期1637-1641,共5页
由于激活函数本身的特性,使得卷积神经网络出现了梯度消失、神经元死亡、均值偏移、稀疏表达能力差等问题,针对这些问题,将“S”型激活函数和ReLU系激活函数进行了对比,分别讨论其优点和不足,并结合ReLU、PReLU和Softplus三种激活函数优... 由于激活函数本身的特性,使得卷积神经网络出现了梯度消失、神经元死亡、均值偏移、稀疏表达能力差等问题,针对这些问题,将“S”型激活函数和ReLU系激活函数进行了对比,分别讨论其优点和不足,并结合ReLU、PReLU和Softplus三种激活函数优点,提出了一种新型激活函数SPReLU。实验结果表明,SPReLU函数在性能上优于其他激活函数,收敛速度快,能有效降低训练误差,缓解梯度消失和神经元死亡等问题,能够有效地提高文本分类模型的准确性。 展开更多
关键词 卷积神经网络 激活函数 梯度消失 神经元死亡 relu
下载PDF
基于Softplus函数的神经网络的Reluplex算法验证研究
10
作者 陆明远 侯春燕 王劲松 《信息安全研究》 2022年第9期917-924,共8页
形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,... 形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,而Relu的神经元在训练过程中较脆弱并可能垂死.Softplus是与Relu近似但比Relu更平滑的激活函数,改进了Reluplex算法使之能检验采用Softplus激活函数的深度神经网络,随后获取了在Softplus激活函数下测试鲁棒对抗性得到的实验数据结果,通过与Relu测试结果进行对比,证明了Softplus的测试效率明显高于Relu,它比Relu更平衡,从而让神经网络的学习更快.该研究扩展了神经网络验证算法的功能并展开了相应的对比分析,有利于以后更好地验证和改进深度神经网络,以确保其安全性. 展开更多
关键词 神经网络 形式化验证 激活函数 relu函数 Softplus函数
下载PDF
基于图像增强和注意力机制的作物杂草识别 被引量:1
11
作者 曲福恒 李婉婷 +2 位作者 杨勇 刘红玉 郝忠林 《计算机工程与设计》 北大核心 2023年第3期815-821,共7页
为提高复杂环境下无人机获取的作物杂草图像识别的准确率,提出一种基于图像增强与注意力机制的作物杂草识别方法。在多尺度Retinex算法中加入颜色恢复函数调节3个通道颜色的占比以恢复其颜色特征,使图像更清晰;将残差网络模型中的激活... 为提高复杂环境下无人机获取的作物杂草图像识别的准确率,提出一种基于图像增强与注意力机制的作物杂草识别方法。在多尺度Retinex算法中加入颜色恢复函数调节3个通道颜色的占比以恢复其颜色特征,使图像更清晰;将残差网络模型中的激活函数换为Leaky ReLU,加入CBAM注意力机制模块,获取更多有用信息,抑制其它无用信息。实验结果表明,该方法可以提高复杂环境下无人机获取的作物杂草图像的识别准确率,其准确率达到95.3%,高于AlexNet、ResNet18、ResNet50及其它主流算法的识别结果。 展开更多
关键词 无人机 作物杂草识别 多尺度RETINEX算法 颜色恢复函数 残差网络 Leaky relu激活函数 注意力机制
下载PDF
Neural Networks on an FPGA and Hardware-Friendly Activation Functions
12
作者 Jiong Si Sarah L. Harris Evangelos Yfantis 《Journal of Computer and Communications》 2020年第12期251-277,共27页
This paper describes our implementation of several neural networks built on a field programmable gate array (FPGA) and used to recognize a handwritten digit dataset—the Modified National Institute of Standards and Te... This paper describes our implementation of several neural networks built on a field programmable gate array (FPGA) and used to recognize a handwritten digit dataset—the Modified National Institute of Standards and Technology (MNIST) database. We also propose a novel hardware-friendly activation function called the dynamic Rectifid Linear Unit (ReLU)—D-ReLU function that achieves higher performance than traditional activation functions at no cost to accuracy. We built a 2-layer online training multilayer perceptron (MLP) neural network on an FPGA with varying data width. Reducing the data width from 8 to 4 bits only reduces prediction accuracy by 11%, but the FPGA area decreases by 41%. Compared to networks that use the sigmoid functions, our proposed D-ReLU function uses 24% - 41% less area with no loss to prediction accuracy. Further reducing the data width of the 3-layer networks from 8 to 4 bits, the prediction accuracies only decrease by 3% - 5%, with area being reduced by 9% - 28%. Moreover, FPGA solutions have 29 times faster execution time, even despite running at a 60× lower clock rate. Thus, FPGA implementations of neural networks offer a high-performance, low power alternative to traditional software methods, and our novel D-ReLU activation function offers additional improvements to performance and power saving. 展开更多
关键词 Deep Learning D-relu Dynamic relu FPGA Hardware Acceleration Activation function
下载PDF
基于改进时间信息融合模型的液压管路故障诊断研究
13
作者 高鹏 李开泰 +2 位作者 王雷雷 窦航 江俊松 《机电工程》 CAS 北大核心 2023年第12期1923-1930,共8页
航空发动机液压管路故障信号中存在强大的噪声干扰,导致其诊断模型的故障识别率较低和诊断模型的泛化性不强。针对这一问题,提出了一种基于改进的时间信息融合模型的航空液压管路故障诊断方法。首先,基于循环神经网络原理,设计了正向和... 航空发动机液压管路故障信号中存在强大的噪声干扰,导致其诊断模型的故障识别率较低和诊断模型的泛化性不强。针对这一问题,提出了一种基于改进的时间信息融合模型的航空液压管路故障诊断方法。首先,基于循环神经网络原理,设计了正向和反向的时间信息融合的变形结构,构建出了航空液压管路时间信息融合模型,并通过引入LeakyReLU函数,对模型进行了改进;然后,将实测的一维航空管路时序数据集输入到改进的时间信息融合模型双向循环神经网络(Bi-RNN)中,进行了权重参数的更新;最后,基于同一实测的数据集,分别将其输入到改进的时间信息融合模型、长短期记忆神经网络(LSTM)、循环神经网络(RNN)、支持向量机(SVM)和反向传播神经网络(BPNN)5种故障诊断方法中,进行了训练和对比分析,对相关方法的优越性进行了验证。研究结果表明:利用改进的时间信息融合模型可以对液压管路健康状态和裂纹、凹坑等故障状态进行精准识别,并且准确率可以达到99.2%,总体的准确率和综合指标F 1-sore均可以提高5.1%;在综合性能、准确精度等指标上,改进时间信息融合模型明显优于其他故障诊断模型,可为航空发动机液压管路故障诊断提供一条新的思路,具有一定的工程应用价值。 展开更多
关键词 液压传动回路 时间信息融合模型 航空管路 循环神经网络 Leakyrelu函数 权重参数更新
下载PDF
基于改进CNN的苹果缺陷检测方法研究 被引量:1
14
作者 杜国真 卢明星 +1 位作者 季泽旭 刘继超 《食品与机械》 CSCD 北大核心 2023年第6期155-160,共6页
目的:解决现有苹果缺陷检测方法存在的精度低、效率差等问题。方法:基于水果图像采集系统,提出一种改进的卷积神经网络用于苹果表面缺陷检测;引入深度可分离卷积代换原网络标准卷积,提高特征提取速度;引入Leaky ReLU激活函数代替ReLU激... 目的:解决现有苹果缺陷检测方法存在的精度低、效率差等问题。方法:基于水果图像采集系统,提出一种改进的卷积神经网络用于苹果表面缺陷检测;引入深度可分离卷积代换原网络标准卷积,提高特征提取速度;引入Leaky ReLU激活函数代替ReLU激活函数,提高计算效率和精度;引入全局平均池化替换全连接层,降低网络模型的计算量;并在每层卷积后加入批量归一化层,通过试验与常规方法进行对比分析,验证其优越性。结果:与常规方法相比,所提方法在苹果缺陷检测中具有较高的检测准确率和速度,且模型参数量少,准确率达99.60%,检测速度(每秒帧数)达526,模型参数量为389 072。结论:该苹果缺陷检测方法能有效降低模型参数和检测时间,具有较高的准确率和速度。 展开更多
关键词 缺陷检测 苹果 卷积神经网络 深度可分离卷积 Leaky relu激活函数 全局平均池化
下载PDF
基于卷积神经网络的SAR图像去噪新方法
15
作者 马智 田斌 《火控雷达技术》 2023年第1期15-20,共6页
本文针对SAR图像相干斑噪声提出一种基于卷积神经网络的SAR图像去噪新方法。把带噪SAR图像输入到本文设计的网络中,利用网络的卷积层提取SAR图像的深层特征,池化层进一步处理以使深层特征降维,再通过反卷积层得到与输入图像尺寸大小一... 本文针对SAR图像相干斑噪声提出一种基于卷积神经网络的SAR图像去噪新方法。把带噪SAR图像输入到本文设计的网络中,利用网络的卷积层提取SAR图像的深层特征,池化层进一步处理以使深层特征降维,再通过反卷积层得到与输入图像尺寸大小一样的结果,并将其与原无噪图像对比,以两者的误差作为神经网络优化器的输入,驱动网络更新各层参数使误差函数最小。为了缩短网络训练收敛的时间,引入ReLU激活函数和批归一化处理,经过少次训练后,网络输出的结果就能接近原始SAR图像。实测数据试验结果表明,与传统SAR-BM3D和SAR-NL去噪方法相比,新方法去噪能力更强,图像视觉效果更好。 展开更多
关键词 SAR图像去噪 卷积神经网络 relu激活函数 批归一化处理
下载PDF
深度ReLU神经网络的万有一致性
16
作者 刘霞 王迪 《中国科学:信息科学》 CSCD 北大核心 2024年第3期638-652,共15页
随着数据量爆炸式增长、计算资源愈加丰富,浅层神经网络并不总能满足时代需求,从而导致深度神经网络的出现.深度神经网络的迅猛发展主要体现在应用领域,其理论研究相对匮乏.基于此,本文聚焦研究深度ReLU神经网络的万有一致性,具体内容包... 随着数据量爆炸式增长、计算资源愈加丰富,浅层神经网络并不总能满足时代需求,从而导致深度神经网络的出现.深度神经网络的迅猛发展主要体现在应用领域,其理论研究相对匮乏.基于此,本文聚焦研究深度ReLU神经网络的万有一致性,具体内容包括:首先,是否存在一个具有统一结构的深度神经网络(即深度、宽度、激活函数等均已确定)使得该深度神经网络可以学习更多特征,并具有万有逼近性;其次,针对已确定的深度神经网络模型,证明其是强万有一致的;最后,从实验的角度验证理论结果的合理性. 展开更多
关键词 深度神经网络 万有一致性 深度学习 relu 函数 逼近性
原文传递
基于卷积神经网络的火焰识别 被引量:6
17
作者 段锁林 刘福 +2 位作者 高仁洲 王一凡 潘礼正 《计算机工程与设计》 北大核心 2019年第11期3288-3292,3298,共6页
针对卷积神经网络在火焰识别应用中受复杂环境背景影响无法充分提取火焰特征的问题,提出一种多通道输入结合策略。在网络输入层,根据LMDB数据源制作过程中提供的火焰区域坐标获取火焰区域,对火焰区域的RGB这3个通道图像分别做灰度和二... 针对卷积神经网络在火焰识别应用中受复杂环境背景影响无法充分提取火焰特征的问题,提出一种多通道输入结合策略。在网络输入层,根据LMDB数据源制作过程中提供的火焰区域坐标获取火焰区域,对火焰区域的RGB这3个通道图像分别做灰度和二值化处理,结合形成9通道的三维数据作为网络的输入;提出一种改进的Relu激活函数,使用两个参数分别控制正负区域斜率,弥补原Relu函数负区域为0强制引入稀疏性的缺点,通过减小Relu正区域斜率,平衡特征数量,降低过拟合风险。实验中重新构建卷积神经网络模型,设置网络参数,通过实验获取最佳Relu改进参数,实验结果表明,该方法对火焰识别精度有显著提高。 展开更多
关键词 卷积神经网络 特征提取 火焰识别 多通道输入 relu函数
下载PDF
用于图像分类的卷积神经网络中激活函数的设计 被引量:54
18
作者 王红霞 周家奇 +1 位作者 辜承昊 林泓 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2019年第7期1363-1373,共11页
为了提高图像分类效果,针对卷积神经网络中常用激活函数relu在x负半轴的导数恒为零,导致训练过程中容易造成神经元"坏死"以及现有组合激活函数relu-softplus在模型收敛情况下学习率过小导致收敛速度慢的问题,提出新的组合激... 为了提高图像分类效果,针对卷积神经网络中常用激活函数relu在x负半轴的导数恒为零,导致训练过程中容易造成神经元"坏死"以及现有组合激活函数relu-softplus在模型收敛情况下学习率过小导致收敛速度慢的问题,提出新的组合激活函数relu-softsign.分析激活函数在训练过程中的作用,给出激活函数在设计时需要考虑的要点;根据这些要点,将relu和softsign函数于x轴正、负半轴进行分段组合,使其x负半轴导数不再恒为零;分别在MNIST、PI100、CIFAR-100和Caltech256数据集上,与单一的激活函数和relu-softplus组合激活函数进行对比实验.实验结果表明,使用relu-softsign组合激活函数提高了模型分类准确率,简单有效地缓解了神经元不可逆"坏死"现象;加快了模型的收敛速度,在复杂数据集上该组合函数的收敛性能更好. 展开更多
关键词 图像分类 卷积神经网络 激活函数 relu 神经元坏死 组合激活函数
下载PDF
基于Gabor核的卷积神经网络改进算法及应用 被引量:4
19
作者 杨景明 周豪腾 +2 位作者 杨波 王亚超 魏立新 《燕山大学学报》 CAS 北大核心 2018年第5期427-433,共7页
针对Le Net-5网络模型识别分类准确度问题,提出一种基于深度Gabor卷积神经网络的识别分类方法。在Le Net-5模型的基础上,引入了Gabor层,使用Gabor核作为提取图像特征的卷积核,Gabor卷积核从图像频域的不同尺度、不同方向上提取更多特征... 针对Le Net-5网络模型识别分类准确度问题,提出一种基于深度Gabor卷积神经网络的识别分类方法。在Le Net-5模型的基础上,引入了Gabor层,使用Gabor核作为提取图像特征的卷积核,Gabor卷积核从图像频域的不同尺度、不同方向上提取更多特征。为了避免网络训练中的梯度消失问题,使用Relu函数作为网络中的激活函数。将改进后的模型在MNIST手写体数据集上进行试验,识别正确率达到99. 34%。与支持向量机和卷积神经网络等分类方法作比较,结果表明,改进后的深度Gabor卷积神经网络的具有更高的识别性能。 展开更多
关键词 卷积神经网络 Gabor卷积核 relu函数 特征提取 识别分类
下载PDF
基于深度信念网络和多信息融合的复杂机电装备故障诊断方法 被引量:8
20
作者 刘秀丽 徐小力 《机床与液压》 北大核心 2019年第1期151-156,126,共7页
针对复杂机电装备故障诊断中存在的数据量大、提取故障特征困难等问题,结合深度学习理论强大的感知与自我学习能力,提出一种基于深度信念网络和多信息融合的复杂机电装备故障诊断方法。将多个传感器的原始时域信号数据输入深度信念网络... 针对复杂机电装备故障诊断中存在的数据量大、提取故障特征困难等问题,结合深度学习理论强大的感知与自我学习能力,提出一种基于深度信念网络和多信息融合的复杂机电装备故障诊断方法。将多个传感器的原始时域信号数据输入深度信念网络进行训练,通过反向微调学习对深度信念网络进行整体微调,提高分类准确性,同时在训练过程采用ReLu激活函数和加入Batch Normalization,减少过拟合出现概率的同时提高了网络收敛的速度。将此方法运用到复杂数控加工中心刀具的故障诊断中,结果表明该方法相比传统BPNN算法和采用Sigmoid激活函数的深度神经网络算法准确率更高。 展开更多
关键词 深度信念网络 复杂机电装备 relu激活函数 BATCH Normalization方法 故障诊断
下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部