期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
融合图嵌入的光滑主成分分析网络图像识别算法 被引量:3
1
作者 陈飞玥 朱玉莲 +1 位作者 田甲略 蒋珂 《国防科技大学学报》 EI CAS CSCD 北大核心 2022年第3期16-22,共7页
主成分分析网络(principal component analysis network,PCANet)是一种简单的深度学习算法,在图像识别领域具有优秀的性能。将图嵌入思想融入PCANet,提出一种新的图像识别算法光滑主成分分析网络(Smooth-PCANet)。为了验证Smooth-PCANe... 主成分分析网络(principal component analysis network,PCANet)是一种简单的深度学习算法,在图像识别领域具有优秀的性能。将图嵌入思想融入PCANet,提出一种新的图像识别算法光滑主成分分析网络(Smooth-PCANet)。为了验证Smooth-PCANet算法的有效性,在人脸、手写体字符以及图片等不同数据集上构建实验,并将Smooth-PCANet与多种基于深度学习的图像识别算法作了对比。实验结果证明,Smooth-PCANet算法比PCANet获得了更高的识别性能,并且更有效地避免了过拟合,在小样本训练时具有显著优势。 展开更多
关键词 图像识别 主成分分析网络 图嵌入 深度学习 小样本训练集
下载PDF
基于局部特征的二维白化重构 被引量:1
2
作者 田甲略 朱玉莲 +1 位作者 陈飞玥 刘佳慧 《数据采集与处理》 CSCD 北大核心 2022年第2期308-320,共13页
白化是一种能够去除数据各属性间相关性的数据预处理方法。最近提出的二维白化重构方法(Two-dimensional whitening reconstruction,TWR)是一种针对单张图片的白化方法,阐述了TWR方法等价于基于图像列的ZCA白化,即TWR具有去除图像列内... 白化是一种能够去除数据各属性间相关性的数据预处理方法。最近提出的二维白化重构方法(Two-dimensional whitening reconstruction,TWR)是一种针对单张图片的白化方法,阐述了TWR方法等价于基于图像列的ZCA白化,即TWR具有去除图像列内相关性的作用;但是图像局部块内的相关性往往远大于列内,因此本文从去除图像局部块内相关性的角度出发,提出了两种TWR的改进方法:基于重组的TWR(Reshaped-based TWR,RTWR)方法和基于块的TWR(Patch-based TWR,PTWR)方法。RTWR首先将图像进行重新组合使得每个列向量对应着原始图像的子块,然后将TWR预处理作用在重组后的图像上;而PTWR方法则将TWR直接作用在图像的每个子块上。在ORL、CMU PIE、AR三个人脸数据集上的实验结果表明,RTWR和PTWR预处理比TWR预处理更有利于后续分类性能的提高。 展开更多
关键词 二维白化重构 ZCA白化 子图像 图像处理 相关性
下载PDF
Double Transformed Tubal Nuclear Norm Minimization for Tensor Completion
3
作者 tian jialue ZHU Yulian LIU Jiahui 《Transactions of Nanjing University of Aeronautics and Astronautics》 EI CSCD 2022年第S01期166-174,共9页
Non-convex methods play a critical role in low-rank tensor completion for their approximation to tensor rank is tighter than that of convex methods.But they usually cost much more time for calculating singular values ... Non-convex methods play a critical role in low-rank tensor completion for their approximation to tensor rank is tighter than that of convex methods.But they usually cost much more time for calculating singular values of large tensors.In this paper,we propose a double transformed tubal nuclear norm(DTTNN)to replace the rank norm penalty in low rank tensor completion(LRTC)tasks.DTTNN turns the original non-convex penalty of a large tensor into two convex penalties of much smaller tensors,and it is shown to be an equivalent transformation.Therefore,DTTNN could take advantage of non-convex envelopes while saving time.Experimental results on color image and video inpainting tasks verify the effectiveness of DTTNN compared with state-of-the-art methods. 展开更多
关键词 double transformed tubal nuclear norm low tubal-rank non-convex optimization tensor factorization tensor completion
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部