期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于双HSIC和稀疏正则化的多标签特征选择
1
作者 李帮娜 贺兴时 朱军伟 《西安工程大学学报》 CAS 2024年第4期141-151,共11页
为了合理地利用多标签数据中的样本信息和标签信息,提高模型的分类性能,提出了基于双希尔伯特-施密特独立性准则(Hilbert-Schmidt independence criterion,HSIC)和稀疏正则化的多标签特征选择(DHSR)。该方法在线性映射的基础上引入双HSI... 为了合理地利用多标签数据中的样本信息和标签信息,提高模型的分类性能,提出了基于双希尔伯特-施密特独立性准则(Hilbert-Schmidt independence criterion,HSIC)和稀疏正则化的多标签特征选择(DHSR)。该方法在线性映射的基础上引入双HSIC作为正则项,增强伪标签空间和特征空间之间的依赖关系,增强伪标签空间和真实标签空间之间的依赖关系。并使用L2,1范数作为稀疏正则项,以提高模型的泛化能力和减少模型的计算复杂度。最后,在多个经典多标签数据集上的对比实验结果验证了DHSR的有效性和优越性。 展开更多
关键词 多标签学习 特征选择 希尔伯特-施密特独立性准则 稀疏正则化 线性映射
下载PDF
多样性表示的深度子空间聚类算法 被引量:5
2
作者 马志峰 于俊洋 王龙葛 《计算机应用》 CSCD 北大核心 2023年第2期407-412,共6页
针对深度子空间聚类问题中不同层次特征中互补信息挖掘困难的问题,在深度自编码器的基础上,提出了一种在编码器获取的低层和高层特征之间探索互补信息的多样性表示的深度子空间聚类(DRDSC)算法。首先,基于希尔伯特-施密特独立性准则(HS... 针对深度子空间聚类问题中不同层次特征中互补信息挖掘困难的问题,在深度自编码器的基础上,提出了一种在编码器获取的低层和高层特征之间探索互补信息的多样性表示的深度子空间聚类(DRDSC)算法。首先,基于希尔伯特-施密特独立性准则(HSIC)建立了不同层次特征衡量多样性表示模型;其次,在深度自编码器网络结构中引入特征多样性表示模块,从而挖掘有利于提升聚类效果的图像特征;此外,更新了损失函数的形式,有效融合了多层次表示的底层子空间;最后,在常用的聚类数据集上进行了多次实验。实验结果表明,DRDSC在数据集Extended Yale B、ORL、COIL20和Umist上的聚类错误率分别达到1.23%、10.50%、1.74%和17.71%,与高效稠密子空间聚类(EDSC)相比,分别降低了10.41、16.75、13.12和12.92个百分点;与深度子空间聚类(DSC)相比,分别降低了1.44、3.50、3.68和9.17个百分点,说明所提出的DRDSC算法有更好的聚类效果。 展开更多
关键词 希尔伯特-施密特独立性准则 自编码器 相似度矩阵 谱聚类 子空间聚类
下载PDF
基于核统计独立性准则的特征选择研究综述 被引量:2
3
作者 胡振威 汪廷华 周慧颖 《计算机工程与应用》 CSCD 北大核心 2022年第22期54-64,共11页
希尔伯特-施密特独立性准则(Hilbert-Schmidtindependencecriterion,HSIC)是一种基于核函数的独立性度量标准,具有计算简单、收敛速度快和偏差低等优点,广泛应用于统计分析和机器学习问题中。特征选择是一种有效的降维技术,它能评估特... 希尔伯特-施密特独立性准则(Hilbert-Schmidtindependencecriterion,HSIC)是一种基于核函数的独立性度量标准,具有计算简单、收敛速度快和偏差低等优点,广泛应用于统计分析和机器学习问题中。特征选择是一种有效的降维技术,它能评估特征的重要性,并构造适合学习任务的最优特征子空间。系统综述了基于HSIC的特征选择方法,详细介绍了其中的理论基础、算法模型和求解方法,分析了基于HSIC的特征选择的优点与不足,并对未来的研究做出展望。 展开更多
关键词 特征选择 希尔伯特-施密特独立性准则 核方法 机器学习
下载PDF
一种基于嵌入式的弱标记分类算法 被引量:2
4
作者 李亚重 杨有龙 仇海全 《南京大学学报(自然科学版)》 CAS CSCD 北大核心 2020年第4期549-560,共12页
对于高维标签的分类问题,标签嵌入法已经受到广泛关注.现有的嵌入方法大都需要完整的标签信息,也没有将特征空间考虑在内;同时,由于数据进行人工标注的成本高以及噪声干扰等原因,仅能获得数据的部分标签信息,使得含有缺失标签的高维标... 对于高维标签的分类问题,标签嵌入法已经受到广泛关注.现有的嵌入方法大都需要完整的标签信息,也没有将特征空间考虑在内;同时,由于数据进行人工标注的成本高以及噪声干扰等原因,仅能获得数据的部分标签信息,使得含有缺失标签的高维标签分类问题变得更加复杂.为解决这一问题,提出一种弱标记嵌入算法(Label Embedding for Weak Label Classification,LEWL).该算法利用矩阵的低秩分解模型,结合样本的流形结构恢复缺失标签;同时采用希尔伯特‐施密特独立标准技术(Hilbert‐Schmidt Independence Criterion,HSIC)使特征和标签相互作用,联合学习获得一个低维的嵌入空间,可以有效地减少模型的训练时间.通过在七个多标签数据集上与其他算法的对比实验,结果表明了所提算法的有效性. 展开更多
关键词 弱标记学习 标签嵌入 低秩分解 希尔伯特‐施密特独立标准 缺失标签
下载PDF
基于HSIC-GL的多元时间序列非线性Granger因果关系分析 被引量:3
5
作者 李柏松 任伟杰 韩敏 《信息与控制》 CSCD 北大核心 2021年第3期356-365,共10页
因果分析是数据挖掘领域重要的研究课题之一.由于传统的Granger因果模型难以准确识别多变量系统的非线性因果关系,本文提出一种基于Hilbert-Schmidt独立性准则(Hilbert-Schmidt independence criterion,HSIC)的组Lasso模型的Granger因... 因果分析是数据挖掘领域重要的研究课题之一.由于传统的Granger因果模型难以准确识别多变量系统的非线性因果关系,本文提出一种基于Hilbert-Schmidt独立性准则(Hilbert-Schmidt independence criterion,HSIC)的组Lasso模型的Granger因果分析方法.首先,利用HSIC将输入样本和输出样本映射到再生核Hilbert空间,克服了传统的Granger因果模型不能应用于非线性系统的缺陷.然后,建立具有组Lasso约束的回归模型,对多变量及其组派生变量进行因果分析,并采用贝叶斯信息准则进行模型选择,避免了人为设置滞后阶数和正则化参数.最后,根据HSIC-GL模型的回归系数和显著性检验结果,实现了多变量时间序列之间的非线性因果分析.通过对非线性和混沌系统的仿真实验,验证了该方法的有效性.最后将其应用于沈阳空气质量指数(AQI)和气象时间序列的因果关系分析. 展开更多
关键词 多元时间序列 GRANGER因果 hilbert-schmidt独立性 准则 组Lasso
原文传递
Minimizing the Discrepancy Between Source and Target Domains by Learning Adapting Components
6
作者 Fatemeh Dorri Ali Ghodsi 《Journal of Computer Science & Technology》 SCIE EI CSCD 2014年第1期105-115,共11页
Predicting the response variables of the target dataset is one of the main problems in machine learning. Predictive models are desired to perform satisfactorily in a broad range of target domains. However, that may no... Predicting the response variables of the target dataset is one of the main problems in machine learning. Predictive models are desired to perform satisfactorily in a broad range of target domains. However, that may not be plausible if there is a mismatch between the source and target domain distributions. The goal of domain adaptation algorithms is to solve this issue and deploy a model across different target domains. We propose a method based on kernel distribution embedding and Hilbert-Schmidt independence criterion (HSIC) to address this problem. The proposed method embeds both source and target data into a new feature space with two properties: 1) the distributions of the source and the target datasets are as close as possible in the new feature space, and 2) the important structural information of the data is preserved. The embedded data can be in lower dimensional space while preserving the aforementioned properties and therefore the method can be considered as a dimensionality reduction method as well. Our proposed method has a closed-form solution and the experimental results show that it works well in practice. 展开更多
关键词 domain adaptation kernel embedding hilbert-schmidt independence criterion
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部