修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了...修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了深度卷积神经网络的学习速率和学习效果.针对ReLU函数的零梯度问题和偏移现象,根据"输出均值接近零的激活函数能够提升神经网络学习性能"原理对其进行改进,提出SLU(softplus linear unit)函数.首先,对负数输入部分进行softplus处理,使得负数输入时SLU函数的输出为负,从而输出平均值更接近于零,减缓了偏移现象;其次,为保证梯度平稳,对SLU的参数进行约束,并固定正数部分的参数;最后,根据SLU对正数部分的处理调整负数部分的参数,确保激活函数在零点处连续可导,信息得以双向传播.设计深度自编码模型在数据集MINST上进行无监督学习,设计网中网卷积神经网络模型在数据集CIFAR-10上进行监督学习.实验结果表明,与ReLU及其相关改进单元相比,基于SLU函数的神经网络模型具有更好的特征学习能力和更高的学习精度.展开更多
由于指静脉图像含有大量弯曲纹理特征,针对传统的Gabor滤波器具有多尺度与多方向特征,但在提取图像弯曲纹理信息能力不足,提出了一种基于深度学习与改进Gabor特征融合的指静脉识别算法。首先对传统Gabor滤波器进行改进,使其具有曲率响...由于指静脉图像含有大量弯曲纹理特征,针对传统的Gabor滤波器具有多尺度与多方向特征,但在提取图像弯曲纹理信息能力不足,提出了一种基于深度学习与改进Gabor特征融合的指静脉识别算法。首先对传统Gabor滤波器进行改进,使其具有曲率响应能力,然后使用均匀LBP算子进一步处理得到融合特征,最后将融合特征信息输入到深度信念网络(Deep Belief Network,DBN)进行静脉图像识别,实验中针对预训练时间过长,使用修正线性单元变体(Lea Ky Re LU)改进RBM,通过实验测试表明,上述算法准确率明显优于其它指静脉识别算法。展开更多
文摘修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了深度卷积神经网络的学习速率和学习效果.针对ReLU函数的零梯度问题和偏移现象,根据"输出均值接近零的激活函数能够提升神经网络学习性能"原理对其进行改进,提出SLU(softplus linear unit)函数.首先,对负数输入部分进行softplus处理,使得负数输入时SLU函数的输出为负,从而输出平均值更接近于零,减缓了偏移现象;其次,为保证梯度平稳,对SLU的参数进行约束,并固定正数部分的参数;最后,根据SLU对正数部分的处理调整负数部分的参数,确保激活函数在零点处连续可导,信息得以双向传播.设计深度自编码模型在数据集MINST上进行无监督学习,设计网中网卷积神经网络模型在数据集CIFAR-10上进行监督学习.实验结果表明,与ReLU及其相关改进单元相比,基于SLU函数的神经网络模型具有更好的特征学习能力和更高的学习精度.
文摘由于指静脉图像含有大量弯曲纹理特征,针对传统的Gabor滤波器具有多尺度与多方向特征,但在提取图像弯曲纹理信息能力不足,提出了一种基于深度学习与改进Gabor特征融合的指静脉识别算法。首先对传统Gabor滤波器进行改进,使其具有曲率响应能力,然后使用均匀LBP算子进一步处理得到融合特征,最后将融合特征信息输入到深度信念网络(Deep Belief Network,DBN)进行静脉图像识别,实验中针对预训练时间过长,使用修正线性单元变体(Lea Ky Re LU)改进RBM,通过实验测试表明,上述算法准确率明显优于其它指静脉识别算法。