为了使“区间”形式加以表述的不确定信息的提取具有侧重性,需提取出对象(属性)集对应的属性(对象)区间集。本文在模糊形式背景中,通过引入2个阈值,将单边区间集与经典半概念结合,提取出属性(对象)集对应的对象(属性)区间集,从而提出区...为了使“区间”形式加以表述的不确定信息的提取具有侧重性,需提取出对象(属性)集对应的属性(对象)区间集。本文在模糊形式背景中,通过引入2个阈值,将单边区间集与经典半概念结合,提取出属性(对象)集对应的对象(属性)区间集,从而提出区间集外延–集合内涵(集合外延–区间集内涵)(interval set extent-set intent(set extent-interval set intent),ISE-SI(SE-ISI))型单边区间集模糊半概念。全体ISE-SI(SE-ISI)型单边区间集模糊半概念构成格,并给出基于格搜寻全体ISE-SI(SE-ISI)型单边区间集模糊半概念的算法。通过与已有成果对比,显示出这2种知识表示形式的多方优势。本文所得结果在知识表示及提取方法上具有适用范围广、实际应用强等优点。展开更多
大数据时代,流数据大量涌现.概念漂移作为流数据挖掘中最典型且困难的问题,受到了越来越广泛的关注.集成学习是处理流数据中概念漂移的常用方法,然而在漂移发生后,学习模型往往无法对流数据的分布变化做出及时响应,且不能有效处理不同...大数据时代,流数据大量涌现.概念漂移作为流数据挖掘中最典型且困难的问题,受到了越来越广泛的关注.集成学习是处理流数据中概念漂移的常用方法,然而在漂移发生后,学习模型往往无法对流数据的分布变化做出及时响应,且不能有效处理不同类型概念漂移,导致模型泛化性能下降.针对这个问题,提出一种面向不同类型概念漂移的两阶段自适应集成学习方法(two-stage adaptive ensemble learning method for different types of concept drift,TAEL).该方法首先通过检测漂移跨度来判断概念漂移类型,然后根据不同漂移类型,提出“过滤-扩充”两阶段样本处理机制动态选择合适的样本处理策略.具体地,在过滤阶段,针对不同漂移类型,创建不同的非关键样本过滤器,提取历史样本块中的关键样本,使历史数据分布更接近最新数据分布,提高基学习器有效性;在扩充阶段,提出一种分块优先抽样方法,针对不同漂移类型设置合适的抽取规模,并根据历史关键样本所属类别在当前样本块上的规模占比设置抽样优先级,再由抽样优先级确定抽样概率,依据抽样概率从历史关键样本块中抽取关键样本子集扩充当前样本块,缓解样本扩充后的类别不平衡现象,解决当前基学习器欠拟合问题的同时增强其稳定性.实验结果表明,所提方法能够对不同类型的概念漂移做出及时响应,加快漂移发生后在线集成模型的收敛速度,提高模型的整体泛化性能.展开更多
文摘为了使“区间”形式加以表述的不确定信息的提取具有侧重性,需提取出对象(属性)集对应的属性(对象)区间集。本文在模糊形式背景中,通过引入2个阈值,将单边区间集与经典半概念结合,提取出属性(对象)集对应的对象(属性)区间集,从而提出区间集外延–集合内涵(集合外延–区间集内涵)(interval set extent-set intent(set extent-interval set intent),ISE-SI(SE-ISI))型单边区间集模糊半概念。全体ISE-SI(SE-ISI)型单边区间集模糊半概念构成格,并给出基于格搜寻全体ISE-SI(SE-ISI)型单边区间集模糊半概念的算法。通过与已有成果对比,显示出这2种知识表示形式的多方优势。本文所得结果在知识表示及提取方法上具有适用范围广、实际应用强等优点。
文摘大数据时代,流数据大量涌现.概念漂移作为流数据挖掘中最典型且困难的问题,受到了越来越广泛的关注.集成学习是处理流数据中概念漂移的常用方法,然而在漂移发生后,学习模型往往无法对流数据的分布变化做出及时响应,且不能有效处理不同类型概念漂移,导致模型泛化性能下降.针对这个问题,提出一种面向不同类型概念漂移的两阶段自适应集成学习方法(two-stage adaptive ensemble learning method for different types of concept drift,TAEL).该方法首先通过检测漂移跨度来判断概念漂移类型,然后根据不同漂移类型,提出“过滤-扩充”两阶段样本处理机制动态选择合适的样本处理策略.具体地,在过滤阶段,针对不同漂移类型,创建不同的非关键样本过滤器,提取历史样本块中的关键样本,使历史数据分布更接近最新数据分布,提高基学习器有效性;在扩充阶段,提出一种分块优先抽样方法,针对不同漂移类型设置合适的抽取规模,并根据历史关键样本所属类别在当前样本块上的规模占比设置抽样优先级,再由抽样优先级确定抽样概率,依据抽样概率从历史关键样本块中抽取关键样本子集扩充当前样本块,缓解样本扩充后的类别不平衡现象,解决当前基学习器欠拟合问题的同时增强其稳定性.实验结果表明,所提方法能够对不同类型的概念漂移做出及时响应,加快漂移发生后在线集成模型的收敛速度,提高模型的整体泛化性能.