期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于主成分初始化与双字典学习的图像分类方法
1
作者 张玉兰 张家林 余义斌 《五邑大学学报(自然科学版)》 CAS 2017年第2期27-32,57,共7页
为解决字典学习训练测试消耗时间过长、迭代次数多、识别率及计算效率不高的问题,本文提出一种基于主成分初始化的双字典学习方法,将PCA方法引入双字典学习模型,通过对每类样本矩阵奇异值分解,保留样本95%的主成分作为双字典学习的初始... 为解决字典学习训练测试消耗时间过长、迭代次数多、识别率及计算效率不高的问题,本文提出一种基于主成分初始化的双字典学习方法,将PCA方法引入双字典学习模型,通过对每类样本矩阵奇异值分解,保留样本95%的主成分作为双字典学习的初始子字典,以此充分利用已有样本的全局信息,并减少字典学习的迭代次数.在扩展的Yale B、AR数据库和手写数字字符集MNIST库上的分类实验表明,相对其他分类方法,本文方法大大减少了训练和测试时间,并提高了识别率. 展开更多
关键词 主成分初始化 双字典学习 解析字典 合成字典 图像分类
下载PDF
基于双字典自适应学习算法的低采样率CT重建 被引量:2
2
作者 栾峰 杨帆 +1 位作者 蔡睿智 杨晨 《东北大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第12期1709-1716,共8页
在医疗诊断中,稀疏采样能减少CT扫描过程中辐射对患者的伤害.但直接对稀疏采样后的投影数据进行重建,会使CT重建后的图像出现失真、伪影等问题.为保证低采样率下重建图像的质量,提出了双字典自适应学习算法,参照Sparse-Land模型的双字... 在医疗诊断中,稀疏采样能减少CT扫描过程中辐射对患者的伤害.但直接对稀疏采样后的投影数据进行重建,会使CT重建后的图像出现失真、伪影等问题.为保证低采样率下重建图像的质量,提出了双字典自适应学习算法,参照Sparse-Land模型的双字典学习框架,将K-SVD算法与双字典学习算法框架相结合得到补全投影数据,利用FBP算法进行重建得到高质量的重建图像.实验结果表明,在低采样率下使用所提方法进行CT重建的图像质量优于COMP双字典学习算法和MOD双字典学习算法,并且此方法有效提高了CT图像重建在低采样率时的性能. 展开更多
关键词 CT图像重建 K-SVD算法 双字典学习算法 自适应学习算法 FBP算法
下载PDF
基于双字典学习的眼底图像血管分割 被引量:3
3
作者 杨艳 邵枫 《光电子.激光》 EI CAS CSCD 北大核心 2019年第2期200-207,共8页
为辅助诊断眼底疾病和部分心血管疾病,本文提出一种基于双字典学习和多尺度线状结构检测的眼底图像血管分割方法。首先在HSV颜色空间利用伽马矫正均衡眼底图像的亮度,并在Lab颜色空间采用CLAHE算法提升图像对比度,再采用多尺度线状结构... 为辅助诊断眼底疾病和部分心血管疾病,本文提出一种基于双字典学习和多尺度线状结构检测的眼底图像血管分割方法。首先在HSV颜色空间利用伽马矫正均衡眼底图像的亮度,并在Lab颜色空间采用CLAHE算法提升图像对比度,再采用多尺度线状结构检测算法突出血管结构得到增强后的特征图像;然后利用K-SVD算法训练特征图像块和对应的手绘血管标签图像块,得到表示字典和分割字典,采用表示字典得到新输入特征图像块的重构稀疏系数,由该系数和分割字典获得血管图像块;最后进行图像块拼接、噪声去除和空洞填充等后处理得到最终分割结果。在DRIVE和HRF数据库测试,利用准确率、特异度、敏感度等八种评估指标来检验分割性能。其中,平均准确率分别达0.958 2和0.951 5,平均特异度分别达到0.982 6和0.967 1,平均敏感度分别达到0.709 5和0.762 6,表明该方法具有较好的分割性能和通用性。 展开更多
关键词 眼底图像 血管分割 双字典学习 多尺度线状结构检测
原文传递
Laplacian sparse dictionary learning for image classification based on sparse representation 被引量:1
4
作者 Fang LI Jia SHENG San-yuan ZHANG 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2017年第11期1795-1805,共11页
Sparse representation is a mathematical model for data representation that has proved to be a powerful tool for solving problems in various fields such as pattern recognition, machine learning, and computer vision. As... Sparse representation is a mathematical model for data representation that has proved to be a powerful tool for solving problems in various fields such as pattern recognition, machine learning, and computer vision. As one of the building blocks of the sparse representation method, dictionary learning plays an important role in the minimization of the reconstruction error between the original signal and its sparse representation in the space of the learned dictionary. Although using training samples directly as dictionary bases can achieve good performance, the main drawback of this method is that it may result in a very large and inef- ficient dictionary due to noisy training instances. To obtain a smaller and more representative dictionary, in this paper, we propose an approach called Laplacian sparse dictionary (LSD) learning. Our method is based on manifold learning and double sparsity. We incorporate the Laplacian weighted graph in the sparse representation model and impose the 11-norm sparsity on the dictionary. An LSD is a sparse overcomplete dictionary that can preserve the intrinsic structure of the data and learn a smaller dictionary for each class. The learned LSD can be easily integrated into a classification framework based on sparse representation. We compare the proposed method with other methods using three benchmark-controlled face image databases, Extended Yale B, ORL, and AR, and one uncontrolled person image dataset, i-LIDS-MA. Results show the advantages of the proposed LSD algorithm over state-of-the-art sparse representation based classification methods. 展开更多
关键词 Sparse representation Laplacian regularizer Dictionary learning Double sparsity MANIFOLD
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部