期刊文献+
共找到96篇文章
< 1 2 5 >
每页显示 20 50 100
ReLU激活函数深度网络的构造与逼近 被引量:1
1
作者 刘爱丽 陈志祥 《绍兴文理学院学报》 2024年第2期58-68,共11页
研究ReLU激活函数深度网络的构造与逼近问题.以一个在[-1,1]上对x^(2)具有指数逼近阶的深度ReLU网络作为子网络,构造逼近任意n次多项式的深度网络,并给出其逼近误差的上界估计.借助一元正交切比雪夫多项式、张量积理论和函数逼近的方法... 研究ReLU激活函数深度网络的构造与逼近问题.以一个在[-1,1]上对x^(2)具有指数逼近阶的深度ReLU网络作为子网络,构造逼近任意n次多项式的深度网络,并给出其逼近误差的上界估计.借助一元正交切比雪夫多项式、张量积理论和函数逼近的方法,构造二元正交多项式和两个输入的深度网络,同时得到了对二元连续函数的逼近估计. 展开更多
关键词 relu激活函数 逼近 切比雪夫多项式 深度网络
下载PDF
基于注意力机制结合改进动态ReLU的输变电工程图纸智能评审方法
2
作者 陈晨 薛文杰 +2 位作者 董平先 翟育新 齐桓若 《沈阳工业大学学报》 CAS 北大核心 2024年第6期772-778,共7页
针对传统识别方法对输变电工程图纸的分类效果较差且精确度偏低的问题,在注意力机制和改进动态ReLU基础上,提出了一种基于深度学习的工程图纸智能评审方法。利用Xception基础网络与动态ReLU函数优化小样本数据的分类效果,进而完善样本... 针对传统识别方法对输变电工程图纸的分类效果较差且精确度偏低的问题,在注意力机制和改进动态ReLU基础上,提出了一种基于深度学习的工程图纸智能评审方法。利用Xception基础网络与动态ReLU函数优化小样本数据的分类效果,进而完善样本数据的ReLU参数分配。通过引入改进注意力机制模块,深化神经网络算法中特征图的权重分配,进一步提升了工程图纸的分类效果。仿真结果表明,与传统工程图纸识别方法相比,基于深度学习的工程图纸智能评审方法具有更优分类效果。 展开更多
关键词 输变电工程图纸 改进SE模块 relu函数 深度学习 Xception网络 图像识别 图像分类 卷积神经网络
下载PDF
基于改进动态ReLU和注意力机制模型的中药材粉末显微图像识别研究 被引量:5
3
作者 王一丁 姚毅 +2 位作者 李耀利 蔡少青 袁媛 《计算机应用研究》 CSCD 北大核心 2021年第9期2861-2865,2870,共6页
中药材粉末显微特征图像数据量少、样本类别分布不均衡、类间差异小,传统的图像识别方法分类效果不佳。针对以上问题提出一种基于动态ReLU和注意力机制模型的深度卷积神经网络改进方法。首先,采用对小样本数据分类效果明显的Xception作... 中药材粉末显微特征图像数据量少、样本类别分布不均衡、类间差异小,传统的图像识别方法分类效果不佳。针对以上问题提出一种基于动态ReLU和注意力机制模型的深度卷积神经网络改进方法。首先,采用对小样本数据分类效果明显的Xception作为基础网络;其次,将网络中的静态ReLU激活函数替换为改进的动态ReLU函数,让每个样本具有自己独特的ReLU参数;最后,在网络中嵌入改进的SE模块,使网络能够更好地自动学习到每个特征通道的重要程度。以上方法可以使网络更加注重于图像中的细节信息,能很好地解决样本类别分布不均衡、类间差异小的问题。实验结果表明,对56种中药材粉末导管图像进行分类识别,其准确率提升了约1.5%,达到93.8%,证明了所提研究方法相比于其他图像分类方法具有一定的优越性。 展开更多
关键词 卷积神经网络 中药材粉末显微特征图像识别 深度学习 动态relu函数 SE模块
下载PDF
一种使用log函数的新型修正激活单元LogReLU 被引量:6
4
作者 王多民 刘淑芬 《吉林大学学报(理学版)》 CAS CSCD 北大核心 2017年第3期617-622,共6页
提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真... 提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真实验的结果表明,新提出的两种方法效果均好于原始的修正线性单元,带有两个参数的改进使验证错误率分别降低了0.14%和5.33%. 展开更多
关键词 人工智能 卷积神经网络 激活函数 relu
下载PDF
基于ReLU函数的卷积神经网络的花卉识别算法 被引量:21
5
作者 郭子琰 舒心 +1 位作者 刘常燕 李雷 《计算机技术与发展》 2018年第5期154-157,163,共5页
目前对于花卉识别的工作较少,且在已有实验结果中,识别准确率和识别计算速度偏低,需要改进算法、改善实验结果。卷积神经网络由于其可以将图像直接作为输入对象从而避免人工提取特征过程的误差,且在各种外物因素下(光照、旋转、遮挡等)... 目前对于花卉识别的工作较少,且在已有实验结果中,识别准确率和识别计算速度偏低,需要改进算法、改善实验结果。卷积神经网络由于其可以将图像直接作为输入对象从而避免人工提取特征过程的误差,且在各种外物因素下(光照、旋转、遮挡等)具有良好的鲁棒性,所以在图像识别方面具有巨大的优势。因此选取卷积神经网络对花卉进行识别。在传统卷积神经网络中,一般选用Sigmoid函数作为激活函数,但是使用这种函数需要进行预训练,否则将会出现梯度消失无法收敛的问题。而采用近似生物神经激活函数ReLU则可以避免这一问题,提高机器学习的效果和速度。最终达到了92.5%的识别正确率。 展开更多
关键词 relu函数 卷积神经网络 花卉识别 近似生物神经激活函数
下载PDF
具有ReLU函数的动力神经场方程稳定解的存在性 被引量:3
6
作者 秦子雁 陈芃合 金德泉 《广西大学学报(自然科学版)》 CAS 北大核心 2021年第1期231-235,共5页
为进一步探索动力神经场的相关性质,将单调递增但是无界的ReLU函数作为阈值函数运用在一维的Amari动力神经场中,这与将单调有界的阶跃函数或Sigmoid型函数作为阈值函数的传统动力神经场研究不同。在不考虑输入,且相互作用核为高斯函数... 为进一步探索动力神经场的相关性质,将单调递增但是无界的ReLU函数作为阈值函数运用在一维的Amari动力神经场中,这与将单调有界的阶跃函数或Sigmoid型函数作为阈值函数的传统动力神经场研究不同。在不考虑输入,且相互作用核为高斯函数的情况下,对3种不同的稳定解进行研究,得出Amari动力神经场稳定解的存在条件和相关性质。 展开更多
关键词 Amari动力神经场 稳定解 relu函数 高斯函数
下载PDF
卷积神经网络中SPReLU激活函数的优化研究 被引量:9
7
作者 吴婷婷 许晓东 吴云龙 《计算机与数字工程》 2021年第8期1637-1641,共5页
由于激活函数本身的特性,使得卷积神经网络出现了梯度消失、神经元死亡、均值偏移、稀疏表达能力差等问题,针对这些问题,将“S”型激活函数和ReLU系激活函数进行了对比,分别讨论其优点和不足,并结合ReLU、PReLU和Softplus三种激活函数优... 由于激活函数本身的特性,使得卷积神经网络出现了梯度消失、神经元死亡、均值偏移、稀疏表达能力差等问题,针对这些问题,将“S”型激活函数和ReLU系激活函数进行了对比,分别讨论其优点和不足,并结合ReLU、PReLU和Softplus三种激活函数优点,提出了一种新型激活函数SPReLU。实验结果表明,SPReLU函数在性能上优于其他激活函数,收敛速度快,能有效降低训练误差,缓解梯度消失和神经元死亡等问题,能够有效地提高文本分类模型的准确性。 展开更多
关键词 卷积神经网络 激活函数 梯度消失 神经元死亡 relu
下载PDF
卷积神经网络中ReLU激活函数优化设计 被引量:33
8
作者 王双印 滕国文 《信息通信》 2018年第1期42-43,共2页
卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用... 卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用梯度下降法的激活函数的学习率进行讨论研究并提出可行的学习率改进方法。提出一种新型校正激活函数,称其为e-ln函数,经过Mnist数据集仿真实验证明某些情况下其性能要优于ReLU。 展开更多
关键词 卷积神经网络 激活函数 relu 优化设计
下载PDF
基于Softplus函数的神经网络的Reluplex算法验证研究
9
作者 陆明远 侯春燕 王劲松 《信息安全研究》 2022年第9期917-924,共8页
形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,... 形式化验证是计算机科学中运用数理逻辑的方式验证某个系统是否可行的方法,而把形式化验证方法充分应用于神经网络领域,则能更好地研究神经网络的特性与应用.Reluplex是一种对深度神经网络进行验证的单纯形算法,它使用Relu作为激活函数,而Relu的神经元在训练过程中较脆弱并可能垂死.Softplus是与Relu近似但比Relu更平滑的激活函数,改进了Reluplex算法使之能检验采用Softplus激活函数的深度神经网络,随后获取了在Softplus激活函数下测试鲁棒对抗性得到的实验数据结果,通过与Relu测试结果进行对比,证明了Softplus的测试效率明显高于Relu,它比Relu更平衡,从而让神经网络的学习更快.该研究扩展了神经网络验证算法的功能并展开了相应的对比分析,有利于以后更好地验证和改进深度神经网络,以确保其安全性. 展开更多
关键词 神经网络 形式化验证 激活函数 relu函数 Softplus函数
下载PDF
Palaeoskapha sichuanensis gen. et sp. nov. (Menispermaceae) from the Eocene Relu Formation in western Sichuan, West China 被引量:5
10
作者 Frederic M. B. JACQUES GUO Shuang-Xing 《植物分类学报》 CSCD 北大核心 2007年第4期576-582,共7页
Palaeoskapha sichuanensis gen. et sp. nov. of Menispermaceae is described here for the first time based on a well preserved fossil fruit. The specimen was found in the Relu Formation of western Sichuan, West China. Th... Palaeoskapha sichuanensis gen. et sp. nov. of Menispermaceae is described here for the first time based on a well preserved fossil fruit. The specimen was found in the Relu Formation of western Sichuan, West China. The specimen, straight, boat-shaped endocarp with large ventral condyle, clearly belongs to the tribe Tinosporeae. The wide aperture of the double condyle, combined with a whole shape not deeply invaginated, indicates a genus different from what was already known to science for this tribe. This fossil widens the distribution of the tribe during Eocene from North America and Europe to Asia, where it was formerly unknown. 展开更多
关键词 防已科 始新世 四川 群系 新种 植物 化石 果实
下载PDF
深度ReLU神经网络的万有一致性 被引量:2
11
作者 刘霞 王迪 《中国科学:信息科学》 CSCD 北大核心 2024年第3期638-652,共15页
随着数据量爆炸式增长、计算资源愈加丰富,浅层神经网络并不总能满足时代需求,从而导致深度神经网络的出现.深度神经网络的迅猛发展主要体现在应用领域,其理论研究相对匮乏.基于此,本文聚焦研究深度ReLU神经网络的万有一致性,具体内容包... 随着数据量爆炸式增长、计算资源愈加丰富,浅层神经网络并不总能满足时代需求,从而导致深度神经网络的出现.深度神经网络的迅猛发展主要体现在应用领域,其理论研究相对匮乏.基于此,本文聚焦研究深度ReLU神经网络的万有一致性,具体内容包括:首先,是否存在一个具有统一结构的深度神经网络(即深度、宽度、激活函数等均已确定)使得该深度神经网络可以学习更多特征,并具有万有逼近性;其次,针对已确定的深度神经网络模型,证明其是强万有一致的;最后,从实验的角度验证理论结果的合理性. 展开更多
关键词 深度神经网络 万有一致性 深度学习 relu 函数 逼近性
原文传递
基于ReLU激活函数的轧制力神经网络预报模型 被引量:7
12
作者 刘杰辉 范冬雨 田润良 《锻压技术》 CAS CSCD 北大核心 2016年第10期162-165,共4页
平整机轧制力的预报对轧制过程的优化控制有着重要意义。针对平整机轧制力预测精度不高的问题,提出采用Re LU(Rectified Linear Units)激活函数的神经网络模型来预报平整机的轧制力。在对数据进行主成分分析后,得到影响轧制力的主要因素... 平整机轧制力的预报对轧制过程的优化控制有着重要意义。针对平整机轧制力预测精度不高的问题,提出采用Re LU(Rectified Linear Units)激活函数的神经网络模型来预报平整机的轧制力。在对数据进行主成分分析后,得到影响轧制力的主要因素,并将其作为神经网络的输入层,将平整机轧制力作为输出层,通过使用Python语言编程进行实验,对神经网络模型隐层的相关参数及算法进行单一变量筛选,建立了保证轧制力预报精度最高的神经网络模型。实验结果表明,通过调整隐层层数、神经元数、传播算法、正则化方法,该模型能够将预测误差控制在10%以内,且该实验方法能够对不同输入参数下的平整机轧制力进行精确预报。 展开更多
关键词 轧制力 神经网络 relu 传播算法 正则化 平整机
原文传递
基于Relief算法与ReLU核ELM的煤矿开采最大下沉预测模型研究
13
作者 魏勇 唐延东 +1 位作者 喻强 杨春兰 《煤矿开采》 北大核心 2018年第5期68-72,21,共6页
尝试引入Re LU function核的ELM算法及Relief Algorithm对开采区最大下沉量进行预测。首先基于Relief Algorithm对现场岩移数据进行筛选优化;然后通过隐含层数目循环实验选出预测精度较高的ELM预测模型隐含层数目;再筛选优化后的参数为... 尝试引入Re LU function核的ELM算法及Relief Algorithm对开采区最大下沉量进行预测。首先基于Relief Algorithm对现场岩移数据进行筛选优化;然后通过隐含层数目循环实验选出预测精度较高的ELM预测模型隐含层数目;再筛选优化后的参数为输入,最大下沉为目标分别建立基于Re LU function核、igmoid function核、Radial basis function核及Hardlim function核的ELM预测模型;最后对4种模型的预测结果进行对比分析。结果表明:采厚、平均采深、走向长度和倾向长度与最大下沉关系显著;以Re LU function核、隐含层神经元数目为57的ELM的预测结果精度显著优于对比组。 展开更多
关键词 开采最大下沉 RELIEF ALGORITHM relu FUNCTION ELM
下载PDF
Verifying ReLU Neural Networks from a Model Checking Perspective 被引量:3
14
作者 Wan-Wei Liu Fu Song +1 位作者 Tang-Hao-Ran Zhang Ji Wang 《Journal of Computer Science & Technology》 SCIE EI CSCD 2020年第6期1365-1381,共17页
Neural networks, as an important computing model, have a wide application in artificial intelligence (AI) domain. From the perspective of computer science, such a computing model requires a formal description of its b... Neural networks, as an important computing model, have a wide application in artificial intelligence (AI) domain. From the perspective of computer science, such a computing model requires a formal description of its behaviors, particularly the relation between input and output. In addition, such specifications ought to be verified automatically. ReLU (rectified linear unit) neural networks are intensively used in practice. In this paper, we present ReLU Temporal Logic (ReTL), whose semantics is defined with respect to ReLU neural networks, which could specify value-related properties about the network. We show that the model checking algorithm for theΣ2∪Π2 fragment of ReTL, which can express properties such as output reachability, is decidable in EXPSPACE. We have also implemented our algorithm with a prototype tool, and experimental results demonstrate the feasibility of the presented model checking approach. 展开更多
关键词 model checking rectified linear unit neural(relu)network temporal logic
原文传递
Feature Representations Using the Reflected Rectified Linear Unit(RReLU) Activation 被引量:8
15
作者 Chaity Banerjee Tathagata Mukherjee Eduardo Pasiliao Jr. 《Big Data Mining and Analytics》 2020年第2期102-120,共19页
Deep Neural Networks(DNNs)have become the tool of choice for machine learning practitioners today.One important aspect of designing a neural network is the choice of the activation function to be used at the neurons o... Deep Neural Networks(DNNs)have become the tool of choice for machine learning practitioners today.One important aspect of designing a neural network is the choice of the activation function to be used at the neurons of the different layers.In this work,we introduce a four-output activation function called the Reflected Rectified Linear Unit(RRe LU)activation which considers both a feature and its negation during computation.Our activation function is"sparse",in that only two of the four possible outputs are active at a given time.We test our activation function on the standard MNIST and CIFAR-10 datasets,which are classification problems,as well as on a novel Computational Fluid Dynamics(CFD)dataset which is posed as a regression problem.On the baseline network for the MNIST dataset,having two hidden layers,our activation function improves the validation accuracy from 0.09 to 0.97 compared to the well-known Re LU activation.For the CIFAR-10 dataset,we use a deep baseline network that achieves 0.78 validation accuracy with 20 epochs but overfits the data.Using the RRe LU activation,we can achieve the same accuracy without overfitting the data.For the CFD dataset,we show that the RRe LU activation can reduce the number of epochs from 100(using Re LU)to 10 while obtaining the same levels of performance. 展开更多
关键词 deep learning feature space APPROXIMATIONS multi-output activations Rectified Linear Unit(relu)
原文传递
DEEP RELU NETWORKS OVERCOME THE CURSE OF DIMENSIONALITY FOR GENERALIZED BANDLIMITED FUNCTIONS
16
作者 Hadrien Montanelli Haizhao Yang Qiang Du 《Journal of Computational Mathematics》 SCIE CSCD 2021年第6期801-815,共15页
We prove a theorem concerning the approximation of generalized bandlimited multivariate functions by deep ReLU networks for which the curse of the dimensionality is overcome.Our theorem is based on a result by Maurey ... We prove a theorem concerning the approximation of generalized bandlimited multivariate functions by deep ReLU networks for which the curse of the dimensionality is overcome.Our theorem is based on a result by Maurey and on the ability of deep ReLU networks to approximate Chebyshev polynomials and analytic functions efficiently. 展开更多
关键词 Machine learning Deep relu networks Curse of dimensionality Approximation theory Bandlimited functions Chebyshev polynomials
原文传递
基于多感受野特征增强的改进EfficientDet遥感目标检测算法 被引量:1
17
作者 张润梅 贾振楠 +3 位作者 李佳祥 吴路路 徐信芯 袁彬 《电光与控制》 CSCD 北大核心 2024年第7期53-60,96,共9页
针对遥感图像目标检测中小目标检测精度低、目标密集和尺度形态多样等问题,在轻量化网络EfficientDet-D0目标检测算法的基础上,在加权双向特征金字塔网络(BiFPN)进行特征融合时加入小尺度以及高一级尺度的中间信息,对BiFPN网络进行重构... 针对遥感图像目标检测中小目标检测精度低、目标密集和尺度形态多样等问题,在轻量化网络EfficientDet-D0目标检测算法的基础上,在加权双向特征金字塔网络(BiFPN)进行特征融合时加入小尺度以及高一级尺度的中间信息,对BiFPN网络进行重构,充分利用不同尺度信息,提高多尺度目标检测精度;同时在BiFPN中加入融合空洞卷积和快速归一化融合方法的特征增强模块,补强因特征图缩放所丢失的特征信息,进一步提高检测精度;另外,采用参数动态的Dynamic ReLU激活函数对原始网络中的参数静态的Swish激活函数进行改进。改进EfficientDet算法在不影响轻量化特点的前提下,对公开数据集Pascal VOC的目标检测平均精度均值(mAP)相较于原始算法提升11.9个百分点,亦优于其他目标检测算法。针对遥感图像数据集RSOD,通过Imgaug数据增强库对已有的936幅遥感图像数据集进行数据增广,利用改进模型进行迁移学习,未进行数据增广和增广后的目标检测结果分别为88.38%和96.78%,证明所提算法可以满足实际应用中对遥感图像目标的检测要求。 展开更多
关键词 深度学习 遥感图像 目标检测 EfficientDet 多尺度特征融合 特征增强模块 Dynamic relu
下载PDF
基于改进的YOLOv5网络的舌象检测算法
18
作者 张杨 辛国江 +1 位作者 王鑫 朱磊 《计算机技术与发展》 2024年第2期156-162,共7页
针对目前舌象检测模型在自然状态下对舌象检测存在的误检和漏检的问题,以收集的舌象为研究对象,提出了一种基于YOLOv5的自然状态下的舌象检测算法。首先,将原有的SiLU激活函数替换为ReLu激活函数,减少指数运算,加速舌象检测网络收敛;然... 针对目前舌象检测模型在自然状态下对舌象检测存在的误检和漏检的问题,以收集的舌象为研究对象,提出了一种基于YOLOv5的自然状态下的舌象检测算法。首先,将原有的SiLU激活函数替换为ReLu激活函数,减少指数运算,加速舌象检测网络收敛;然后,利用Ghost轻量化模块技术,大幅降低舌象检测网络的参数量;最后,将SimAm注意力机制融入特征提取网络获取舌象特征,从多维度融合舌象特征,降低自然环境对舌象特征提取的影响。得到一个轻量化的舌象检测模型,在自制的数据集上分析可知:轻量化检测模型参数量达到7.8 MB,检测的精度达到96.6%,同时每秒处理帧数高达86帧,更适合自然状态下舌象的采集工作。实验结果表明,改进的舌象检测网络在自制舌象数据集上,相比于其它常用检测算法,性能指标上均有不同程度提升,对舌象的检测效果更好。 展开更多
关键词 舌象检测 YOLOv5 relu激活函数 轻量化 SimAm注意力机制
下载PDF
基于改进VGG16图像分类方法研究 被引量:1
19
作者 伊卫国 杨金玮 《大连交通大学学报》 CAS 2024年第4期108-112,120,共6页
针对神经网络模型在训练过程中遇到的收敛速度慢和测试样本不平衡导致的准确率降低问题,提出了一种基于改进VGG16图像分类模型的LBF-VGG16(Leaky-Bactch-Focal-VGG16)。该模型将原Relu激活函数替换为Leaky Relu,并在卷积层与激活函数之... 针对神经网络模型在训练过程中遇到的收敛速度慢和测试样本不平衡导致的准确率降低问题,提出了一种基于改进VGG16图像分类模型的LBF-VGG16(Leaky-Bactch-Focal-VGG16)。该模型将原Relu激活函数替换为Leaky Relu,并在卷积层与激活函数之间引入BN层,以优化收敛效果。在训练过程中,采用SGD优化器,并融入Focal Loss损失函数。试验结果表明,LBF-VGG16模型在分类效果和收敛速度方面较改进前均有显著提升。 展开更多
关键词 图像分类 计算机视觉 VGG16 Leaky relu Focal Loss
下载PDF
通过分区间移位实现高效ANN-SNN转换
20
作者 黄志鹏 《福建电脑》 2024年第12期8-13,共6页
SNN因其在神经形态芯片中的高能效优势而受到广泛关注。ANN-SNN转换是实现深度SNN的主流方法之一,但在极低延迟下,死神经元脉冲误差导致目标SNN与源ANN之间存在性能差距。为解决死神经元脉冲误差,实现高性能低延迟SNN,本文提出了一种分... SNN因其在神经形态芯片中的高能效优势而受到广泛关注。ANN-SNN转换是实现深度SNN的主流方法之一,但在极低延迟下,死神经元脉冲误差导致目标SNN与源ANN之间存在性能差距。为解决死神经元脉冲误差,实现高性能低延迟SNN,本文提出了一种分区间移位激活函数,用于替代传统的ReLU激活函数。实验结果表明,在CIFAR-10数据集上,本文方法得到的SNN仅需4个时间步即可达到94.78%的Top-1准确率。 展开更多
关键词 脉冲神经网络 ANN-SNN转换 分区间移位 relu激活函数
下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部